Escritos:
Héctor
Becker G.
El tiempo en la civilización occidental
hasta Prigogine.
Como
todo el conocimiento humano a lo largo de su historia, el tiempo ha sido comprendido de muy diversas formas,
constituyendo el problema por excelencia de todo filósofo y científico; sus interrogantes
se enlazan profundamente con nuestro lugar en el Universo y con aspectos
fundamentales de ese tiempo propio que constituye nuestra existencia — esa
percepción de continuidad que formamos en nuestra mente a partir de los
sentidos — creando la intuición de que el tiempo transcurre desde el pasado
hacia el futuro a través del presente.
Eso es
lo que sentimos y pensamos, pero ¿qué es realmente el
tiempo? para nuestro entendimiento es un concepto tan intuitivo que nuestro
lenguaje no tiene palabras apropiadas para describirlo; para la ciencia y la
filosofía ha sido también una definición
compleja y abstracta; los matemáticos lo asumen como aquello que puede ser
medido por los relojes; para Einstein es una dimensión del universo integrada al espacio, conformando un
espacio-tiempo tetra dimensional que posee importantes propiedades topológicas
y a escala cuántica es descrito por elementos discontinuos o cronogramas de 10 -43
seg — el tiempo de Planck —, escala que en
su inicio el espacio-tiempo se unifica con la materia- energía, pues sabemos que en los primeros
instantes del universo todos sus parámetros se encuentran unificados en
un punto inmaterial de energía cuantizada.
En las
primeras culturas humanas — íntimamente dependientes del medio natural — existió
una percepción intuitiva del
tiempo asociada a ritmos periódicos de la naturaleza como los ciclos del sol, la migración de animales, las
fiestas que celebraban el origen de su cultura, etc.; el tiempo aunque cíclico,
como medida no tenía valor pues en sus inicios nuestra especie vivió por
milenios en un eterno presente, con cambios lentos y poco apreciables en su
cultura, su medio material y su economía. Para encontrar un concepto más objetivo
del tiempo debieron transcurrir miles de años en que inicialmente la caza y
posteriormente la pesca, la domesticación animal y la agricultura transformaran
la precaria economía de subsistencia primitiva iniciándose
la división entre el trabajo productivo y el intelectual, emergiendo en las
primeras culturas urbanas — sumerias, fenicias, egeas y especialmente en las
polis griegas — el oficio de pensar y con él, el desarrollo de la ciencia y la
filosofía.
De
este modo, el saber formal del mundo occidental tiene su inicio en la cultura
griega hace dos mil quinientos años; antes de eso, la representación que el
hombre hizo de su medio natural, del tiempo y de su propia existencia fueron
mitos que personificaban fenómenos naturales como el rayo, las tormentas, las
erupciones volcánicas, el movimiento de los astros, el nacimiento de animales y
plantas, la sequía, la enfermedad y muerte de miembros de su clan debidas a la
acción de entes sobrenaturales que simbolizan las fuerzas del medio
pues — al carecer de explicaciones racionales a los fenómenos naturales — el
hombre primitivo se refugió en mitologías que simbolizan la dinámica de la
naturaleza como la manifestación de seres
poderosos que lanzan calamidades y
muertes contra quienes les ofenden, pudiendo ser también dioses benefactores
que dan la vida, mueven el firmamento y producen las lluvias y cosechas. Desde
estas primeras representaciones míticas naturalistas, la evolución de la
economía primitiva hace surgir una serie de creencias cada vez más elaboradas y
coercitivas que norman la conducta y regulan los excedentes del trabajo de la
sociedad, constituyendo
castas parasitarias con férreas estructuras de poder que llegan hasta nuestros
días con las mismas mitologías de la edad de piedra, conservando una
representación del mundo basada en creencias mágicas contrapuestas a la
naturaleza y a la ciencia. En ese contexto, el mundo primitivo fue el
espacio-tiempo asignado por los dioses y para muchos que aún viven en esa
mítica prehistoria de la cultura humana con creencias en seres feudales que
administran la vida, la muerte, el mundo y el inframundo de los seres humanos,
seguirá siéndolo hasta el fin de sus días.
Aunque
el paso de la tradición oral a la escritura es un precedente necesario para el surgimiento de la filosofía, las matemáticas y la ciencia,
en las primeras culturas urbanas como Minos, Sumer, Babilonia y Egipto apoyados
por una naciente escritura y el desarrollo de los primeros sistemas numéricos se
lograron algunos conocimientos estructurados de botánica, zoología, astronomía
y matemáticas, estos se limitaron a una recopilación sistemática de la
tradición oral acumulada por milenios, sin transformarla en teorías que la
explicasen. Quienes sí lo hicieron fueron los Griegos, que como comerciantes y
marinos navegaron todo el mundo conocido reuniendo e interpretando la cultura
acumulada en las primeras capitales del mundo, por lo que además de ser los
primeros filósofos, fueron también los primeros científicos y bibliotecarios de
nuestra civilización y aunque no podemos hablar de una visión única del tiempo
en su cultura pues en su extensa historia sus filósofos enunciaron una serie de
teorías al respecto, debemos a ese pueblo las primeras reflexiones en torno a
su naturaleza y si hubiera que destacar un concepto transversal distintivo de
la ciencia y la filosofía griega respecto al tiempo deberíamos señalar que
junto con asumir el concepto primitivo del ciclo del eterno retorno asociado a
las divinidades, su reflexión se centra en la existencia de una realidad
objetiva que determina
todo conocimiento; dicha realidad puede consistir en un elemento material como
en la Escuela
de Mileto o en los Pitagóricos — que consideraban el
número una entidad de existencia real en la naturaleza — o puede ser un elemento inmaterial como las ideas preexistentes
propuestas por Sócrates o el mundo ideal
separado de la realidad propuesto
por Platón, pero la búsqueda de la causa primera determinará toda
interpretación de la realidad, subordinando cualquier proposición filosófica a
ese concepto. Los cambios que impondrán posteriormente los sofistas con acento
en el lenguaje, el ser humano o la sociedad no alterarán la disposición a
aceptar la existencia de una realidad objetiva independiente del ser humano a
la que ha de ceñirse todo el conocimiento, incluso el pensamiento mismo y el
tiempo.
De este modo, la preocupación central del
mundo griego hasta Aristóteles no fue una descripción de los fenómenos de la
naturaleza ni su verificación experimental, sino la determinación de los
principios generales de un conocimiento subyacente en la materia — Ousía — una
realidad virtual opuesta al conocimiento científico, una esencia arcana
preexistente en la materia que al aplicar sus principios, determinaba el buen
pensar con un predominio del intelecto sobre la experiencia sensible y la
observación de la naturaleza, creencias que al oponerse a la experimentación,
constituyen tautologías indemostrables que más que explicar la realidad, la
disocian del mundo físico puesto que existe un mundo virtual de las ideas
separado de la realidad material de la naturaleza. Así, el tiempo en la cultura griega anterior a Aristóteles es un
concepto ideal que conforma una realidad virtual eterna separada del hombre, un fundamento potencial que
rige el acontecer de la naturaleza que implica tránsito y desgaste; una
dimensión negativa en que el presente
es parte ilusoria del eterno camino señalado por los dioses.
La filosofía natural de Aristóteles
establece una nueva concepción del tiempo asociada al espacio, pasando de ser
solo un efecto de los acontecimientos materiales a un marco de referencia que
los contiene, formando parte integral de la explicación de la physis o
movimiento infinito de la naturaleza. Esta revolucionaria definición dinámica del tiempo — de gran trascendencia para el futuro
de la ciencia — es heredada por la cultura árabe desde la conquista de
Alejandro Magno y tendrá una importancia fundamental es su desarrollo
científico y económico posterior; sin embargo, no tendrá cabida en la ciencia
occidental hasta la relatividad de Albert Einstein, la mecánica cuántica de
Bohr y Schrödinger y la física de los sistemas complejos de Prigogine,
íntimamente asociados al concepto de irreversibilidad.
Discípulo
de Platón, Aristóteles se distanció de las representaciones idealistas de su maestro, rechazando la
teoría de las ideas separadas de los
entes del mundo elaborando un pensamiento de carácter realista y naturalista;
frente a la separación radical entre mundo
sensible e inteligible planteada por las doctrinas platónicas, defendió la
idea de aprehender la realidad a partir de la experiencia y en contra de las
tesis de su maestro consideró que los conocimientos universales no pueden
separarse de los objetos, sino estar inmersos en la materia como entes reales
que pueden ser captados por los sentidos y estudiados por la inteligencia y la
lógica, con lo que se elevan objetivamente por sobre lo sensible y contingente —
en lo que reside su aspecto universal — confiriendo gran importancia a la
observación, al estudio científico, a la experimentación y a la verificación del
comportamiento de la naturaleza, el ser humano y la sociedad. De este modo,
Aristóteles devuelve la materialidad al
mundo físico — lo que realmente son las cosas entendidas como substancia o características del objeto — no como las ideas separadas del mundo descritas por Platón.
Aristóteles
tampoco admite la idea del saber innato propuesto por Sócrates pues la mente al
nacer es "tabula rasa" en
que nada hay escrito, de modo que el conocimiento comienza en los sentidos y en
la experiencia, en que las percepciones
son aprehendidas por el intelecto que — mediante
la inteligencia y la lógica — transformará las impresiones de los sentidos en
conocimiento suprasensible. Sus trabajos no se dirigieron únicamente al estudio
del mundo físico y a sus causas, orientándose también a los fundamentos de la
lógica formal, la moral, la política, la estética e incluso a la medicina,
abarcando todo el conocimiento de su tiempo haciendo invaluables aportes al
nacimiento y desarrollo de la ciencia occidental. No podemos dejar de lado el
hecho que fue maestro y consejero de Alejandro Magno — considerado el
conquistador, estratega y político más importante de la historia — que a los 20
años de edad había conquistado todo el mundo conocido de su tiempo, difundiendo
en él la cultura y filosofía griega como impulso fundamental de su
revolucionario proyecto
civilizador, que solo tendrá parangón en los ideales de Napoleón veinte siglos
después.
Por su
cuantioso y original trabajo filosófico y científico, Aristóteles es
considerado uno de los pensadores y filósofos más importantes de todos los
tiempos, constituyendo un pilar fundamental del pensamiento occidental; su obra
escrita hace dos mil trescientos años ejerce aún una notable influencia sobre
el mundo científico contemporáneo y continúa siendo objeto de estudio por parte
de múltiples especialistas, constituyendo el legado más importante del
pensamiento de la Grecia
antigua a la civilización occidental.
De
acuerdo con fuentes antiguas, el estagirita escribió alrededor de 170 obras
aunque solo 30 se han conservado, por
lo que muchas de sus ideas nos han llegado a través de interpretaciones y
escritos de sus discípulos o en recopilaciones y traducciones árabes, aunque
muy influenciadas por el platonismo.
En el
mundo occidental — a diferencia de la floreciente cultura y economía Árabe —
durante siglos el pensamiento aristotélico fue eclipsado por las doctrinas
platónicas pues el naturalismo y la objetividad de los desarrollos científicos
y filosóficos de Aristóteles eran acusados de materialismo, obstaculizándose la
investigación científica y privilegiando la visión idealista y neoplatónica de
Plotino y Beocio. El espiritualismo obtuso, el desprecio y la persecución de
las ideas científicas y la experimentación que por 15 siglos caracterizaron al
pensamiento medioeval debido a la preeminencia de los dogmas de la iglesia
católica en la ciencia y la cultura, hicieron que las doctrinas idealistas
predominaran durante toda la
Edad Media, recelándose
de la visión materialista
aristotélica. El filósofo Avicena (n.980) socavaría los pilares de las
creencias religiosas con sus Tesis sobre
la eternidad y Averroes (n.1126) con la traducción directa del griego de la
obra del filósofo recupera el pensamiento de Aristóteles, liberándolo de las adherencias
neoplatónicas y teológicas medievales. Ambos filósofos — de gran importancia en
el desarrollo de las ciencias árabes — contribuyeron con su obra a que el pensamiento
aristotélico — que permaneció oculto y hasta destruido en las bibliotecas de
los monasterios — fuese progresivamente conocido
en Occidente y las fuertes presiones por abandonar el obscurantismo y la
persecución de las ideas decretadas por Roma desde inicio de la Edad Media — que
constituye el trasfondo político de los
sucesivos cismas Anglicano, Calvinista y Luterano así como de 400
años de Inquisición — permitieron que la
obra de Aristóteles fuese estudiada en la nacientes universidades europeas a
partir del siglo XIV y finalmente las obras de sir Roger Bacon y Alberto Magno reivindican las teorías aristotélicas
y junto a la obra de divulgación de Santo Tomás — aunque tremendamente desnaturalizada por la Escolástica Vaticana — la transformarán en la
base oficial de una nueva teología cristiana.
Aristóteles
fue el primer filosofo en desarrollar un análisis objetivo del tiempo,
caracterizándolo como una relación asociada al espacio y al movimiento e
independiente de ellos, sin definirlo enteramente como subjetivo y aunque
explicita su dimensión infinita, deja sin responder una pregunta fundamental;
en su Physis (naturaleza) — término que simboliza un principio
inmanente de operatividad y desarrollo potencial del mundo — establece que el
tiempo “es el número o medida del
movimiento desde una perspectiva de un antes a un después”; pero como
advierte Prigogine, ¿cuál es esa perspectiva: la del alma humana o de la
naturaleza?; no contamos con la respuesta de Aristóteles en las obras que se
disponen, aunque la que le atribuyen sus discípulos es que “el tiempo es un absoluto de la naturaleza
exterior al hombre”; es decir,
es una dimensión semejante al espacio e
íntimamente relacionada con él: “La
naturaleza es en todas las cosas que poseen un principio de movimiento, (como
el tiempo) la forma y la esencia que no son separables por el pensamiento; en
cuanto al compuesto de materia y forma (como la vida) hay que decir que no es
una naturaleza sino un ser natural o por naturaleza.”
En definitiva,
Aristóteles concibe por primera vez la idea del espacio-tiempo,
caracterizándolo como el movimiento infinito y eterno de la naturaleza: un
marco de referencia espacio-temporal en el que los acontecimientos finitos son
concebidos como partes añadidas a un espacio-tiempo infinito — una realidad
exterior a la naturaleza y al hombre — que solo puede ser percibida como
representación subjetiva de una realidad eterna preexistente.
Las
relaciones entre espacio, tiempo, movimiento y experiencia sensible señaladas
por Aristóteles, pese a su tremenda capacidad descriptiva que se anticipa en 24
siglos a la visión de la ciencia contemporánea, no tuvo como resultante una
cosmovisión que impulsara a la sociedad hacia el desarrollo de la ciencia, la
economía y trascendiera al mundo antiguo
con la excepción de la cultura Árabe que — heredando la visión de la ciencia
aristotélica desde la conquista de Alejandro Magno — alcanzó una clara
hegemonía económica, social,
cultural y científica en el mundo antiguo por más de 11 siglos, declinando
progresivamente con el ascenso de la religión mahometana a partir del siglo VIII.
En
Europa, a fines de la Edad
Media, los conocimientos que favorecerían el nacimiento de la
ciencia occidental fueron aportados tanto por la filosofía de Aristóteles como
por el desarrollo posterior de la ciencia y la tecnología islámica impulsadas
en gran medida por los principios científicos y filosóficos aristotélicos, que
privilegiaron la observación de la naturaleza y la experimentación por encima
de las dogmáticas nociones imperantes
en el mundo medioeval que lo sumieron en la ignorancia, la pobreza, la peste y las guerras.
De este
modo, los conocimientos aportados por la cultura árabe permitieron atenuar 1.600
años del enorme vacío cultural, filosófico, científico y económico impuesto por
la religión dominante, que implantó un servil oscurantismo en detrimento del
progreso humano y la sociedad, en que tuvieron que pasar 16 siglos para volver
a hablar de la máquina de vapor que inventara Herón de Alejandría en el siglo
I, para recuperar las teorías griegas sobre la esfericidad de la Tierra y el heliocentrismo,
los movimientos planetarios, los conocimientos de Arquímedes, Euclides y
Ptolomeo, los avances en medicina y cirugía, la idea del átomo así como los
importantes desarrollos árabes en agricultura, medicina, higiene y salud
pública, matemáticas, ingeniería, urbanismo, arquitectura y edificación.
El
estudio de la física del Universo propuesto como filosofía natural por Aristóteles seguirá siendo motivo de
preocupación entre los árabes por más de un milenio y a mediados del siglo VIII
incluían la mayor parte de los conocimientos acumulados por la humanidad en esa
época; en la obra Trivium de finales del siglo V se trataron en profundidad los conceptos básicos
de espacio, tiempo, materia y vacío así como la "ciencia del movimiento" que estudia la relación entre impulso
y velocidad, trabajos en los que se apoyará Isaac Newton 12 siglos después para
establecer sus trascendentes definiciones.
Sir Roger
Bacon (inglés, n.1214) ideólogo del artesanado, estudioso de la ciencia árabe y
fuerte adversario de la Escolástica,
preconizaría el estudio experimental de la naturaleza atribuyendo a los
teólogos el estancamiento de la ciencia
que "con sus métodos represivos han
hecho peligroso hasta hablar de la naturaleza". Su Novum Organum ("El Nuevo
Instrumento") sistematiza el proceso de adquisición de conocimientos por
un proceso de inducción a partir de la visión aristotélica de observación de
los fenómenos; en su opinión, “la ciencia
debe tener por objeto el acrecentamiento
del poder del hombre sobre la naturaleza para el bien de la humanidad"
y por primera vez algunas de sus obras no fueron escritas en Latín como las de
sus predecesores, idea insurreccional para la Iglesia que posteriormente
seguirán Martin Lutero y Galileo Galilei.
Una
interpretación que transformará hasta nuestros días la visión del tiempo en el
pensamiento occidental fue introducida por los profetas del judaísmo gracias a la obra del filósofo judío Filón de Alejandría — una significativa expresión
del sincretismo religioso de la primera
mitad del siglo I que integró la filosofía griega y la teología hebrea — que rompiendo con la idea del eterno retorno, rechazan
la noción del Fatum o destino implantada por los griegos. Esta visión del mundo
sobre la que se construirá la moderna
concepción cristiana, en analogía con las culturas orientales confiere gran
importancia a la búsqueda de desarrollo ético de un ser humano que no se
encuentra en una cíclica fatalidad, sino en tránsito hacia un mundo ideal que
se aproxima, con un tiempo finito contrapuesto al tiempo cíclico y eterno de
los griegos, siendo la primera civilización en introducir en el pensamiento
occidental las ideas de un proceso originario de formación del universo y de un
tiempo finito para la especie humana, así como la idea del libre albedrío que
hasta hoy caracteriza al pensamiento occidental.
La Escolástica impuesta
por la iglesia medioeval tenía por fin sistematizar una concepción del mundo en términos oscuramente aristotélicos,
de lo que se encarga Santo Tomás de
Aquino, quien intenta acoplar la filosofía de Aristóteles con las doctrinas
judeo-cristianas, a fin de cuentas contrapuestas. La cristianización de Aristóteles realizada por Santo Tomás pretende
unificar las ideas de un origen creacional del mundo y el fin de los tiempos
con un tiempo cosmológico infinito, por lo que se estructura en base a dos
sistemas temporales contrapuestos que aparecen como complementarios: el tiempo
lineal y finito del mundo terrenal junto al espacio-tiempo de la eternidad o
tiempo de Dios, en una dimensión ajena a la nuestra; de este modo, la descripción
del tiempo impuesta por la iglesia medioeval es un continuo ilimitado,
homogéneo e independiente, fluyendo como un río en una sola dirección y aunque
señala la existencia de un fin de los tiempos, su infinitud constituye una
reafirmación del concepto de divinidad espaciotemporal eterna preexistente.
La
cosmología de Isaac Newton enunciada en su obra Principia Mathematica editada en
1687 se
enmarca en estas contradictorias descripciones de tiempo, espacio y movimiento
estableciéndolos como absolutos, continuos, infinitos, eternos, uniformes y sin
relación entre ellos, descartando el factor subjetivo en la percepción del
tiempo y su relación con el movimiento expresada por Aristóteles, definiendo su
existencia física concreta y su medición objetiva con el empleo de relojes,
pues tanto el tiempo como el espacio son magnitudes objetivas,
mensurables y no relacionadas a nada externo, en un mundo en eterno movimiento en
que no hay lugar para el presente. De este modo, el concepto de tiempo absoluto y matemático de Newton tiene
existencia en sí, por su propia naturaleza y fluye uniformemente aunque no
indica su sentido o reversibilidad y como en Aristóteles, el ser humano es un mero
espectador.
El
inventor del telescopio — Galileo Galilei — antes de ser perseguido y
excomulgado por la
Iglesia Católica por sus “pecados cosmológicos” había
demostrado tras años de observar el cielo que no existen movimientos absolutos
sino que éstos son relativos al plano desde donde se los mida; esto quiere
decir que si alguien está en movimiento uniforme — por ejemplo en un barco — sin observación
externa no tendría forma de comprobar si se encuentra en reposo o en
movimiento; por tales razones, Newton no tuvo argumentos para impugnar la
relatividad del movimiento de Galileo pero sí la del tiempo y del espacio; su
obra Diálogo
sobre los dos máximos sistemas del mundo escrita en italiano y no en
latín, permanecería incluida en el Índice de libros prohibidos por la Iglesia católica por más
de dos siglos — desde 1633 hasta 1835 — y su autor moriría en su domicilio
cercado por la guardia Vaticana.
La obra
de sir Isaac Newton — aunque
impresionaba a la corte por su erudición — no fue comprendida ni valorada por
el mundo científico de su época en gran medida por las características
controversiales de su personalidad, en que la incomprensión y las intrigas
dificultaron su vida; no tuvo conciencia del impacto de sus teorías en la
ciencia ni de la importancia de sus desarrollos matemáticos, viviendo sus
últimos años enfrascado en obscuras rencillas con Leibniz, quien había
desarrollado independientemente conceptos de cálculo diferencial semejantes,
siendo los trabajos posteriores de Laplace que aclaran los puntos discordantes y
las desavenencias dejadas por su antecesor, extendiendo los geniales conceptos
matemáticos del cálculo diferencial de Newton y Leibniz y dando a las ideas de
la geometría analítica desarrollada por Descartes una mayor elegancia y
eficacia. Su Traité de Mecanique Céleste publicado entre 1799 y 1825 que ha
sido el mayor aporte a la teoría de la gravitación establecida por Newton,
todavía es considerada una obra fundamental en mecánica clásica.
Pocas
teorías científicas han tenido tanta influencia en las ciencias como la teoría de Newton de la gravitación universal y pese a haberse convertido en la ciencia oficial de la
iglesia paradojalmente dio inicio a su separación de la religión, inaugurando
el denominado “siglo de las luces” en
que subyacen las originales ideas de Aristóteles, demostrando que si se observan fenómenos de la naturaleza, se razona y se
emplean modelos matemáticos, es posible descubrir sus más íntimos secretos,
siendo una de las razones de los éxitos científicos que siguieron, que generalizan
en la sociedad la convicción de poder describir los fenómenos fundamentales de
la naturaleza mediante leyes matemáticas,
generándose una perspectiva para la acción que podemos denominar “la búsqueda
del futuro” vigente en la ciencia hasta nuestros días, cuyo
mejor exponente es Einstein.
Aunque Pierre
Simón de Laplace es autor de una considerable obra científica — en que destaca
la formulación del sistema métrico decimal, los inicios de las teorías del
juego y
de probabilidades, la primera teoría del error, el
estudio de las ecuaciones diferenciales y la geodesia — es la
divulgación de las leyes del movimiento universal desarrolladas por Newton lo que
le otorga su mayor prestigio como científico y aunque Napoleón lo nombra
miembro del Senado, Canciller, mimbro de la Legión de Honor, siendo elegido miembro de la Royal Society de
Londres en 1789, tras la restauración de la monarquía es el rey de Francia Luis
XVIII quien lo otorga el título nobiliario de
Marqués en gran medida debido a la difusión de las ideas de Newton.
No
obstante, Le Traité así como Le Discours
de la méthode del matemático y filósofo Francés
René Descartes generalizan la idea de que la realidad física es una cadena de
causas y efectos en que todo en la naturaleza está mecanizado, de modo que las
leyes del universo en que vivimos —
separadas del mundo eterno de los dioses que tiene otras inexplicables leyes
como la gravedad — pueden describirse con una serie de fórmulas matemáticas que
tomando datos desde un sistema físico y representándolo con las ecuaciones
apropiadas para establecer cómo este va a evolucionar en un determinado período
de tiempo, se obtienen resultados que inequívocamente representarán la realidad,
de modo que bastaría con conocer lo que hubiera ocurrido en el pasado para predecir lo que ocurrirá en el futuro.
El modelo
de pensamiento de Newton, Descartes y Laplace cimenta una corriente filosófica
denominada determinismo o mecanicismo que se extendió a todas las
ciencias, en que los científicos de todo el mundo se vieron rodeados por una
fiebre mecanicista alentada por una sucesión de proezas científicas, en que se tenía el
convencimiento que gracias a la regularidad y el orden periódico con que se cumplen
los fenómenos naturales, era de esperar que la ciencia
pusiera rápidamente de manifiesto todos
sus secretos; no obstante, por ser Newton el iniciador del concepto de Deus et Machina en que todos los
procesos de la naturaleza pueden reducirse a procesos mecánicos originados en
causas divinas externas al mundo físico semejantes al ideal griego, estas se le
asignan enteramente pese a haber sido puestos en duda desde finales del siglo
19 por el electromagnetismo debido a la obscuridad de las definiciones del
mágico origen de las fuerzas de
gravedad.
No
obstante sus aportes matemáticos y su potencial descriptivo, aunque también por
su afinidad con los ideales políticos que dan inicio al proceso de
industrialización en Europa y Norteamérica — en que el carácter de la ciencia
estuvo fuertemente condicionado por el desarrollo del capitalismo industrial — hicieron
que su aplicación se generalizara a todas las ciencias si bien con reparos
cartesianos por la ausencia de un concepto objetivo del origen de fuerzas que
no requieren de un medio material para su propagación y aunque se obtuvieron importantes avances en algunas ciencias — especialmente en áreas
tecnológicas, mecánica celeste y cálculo — sus beneficios no fueron los
esperados por sus seguidores, que habían difundido la idea que con la
aplicación generalizada del mecanicismo en las ciencias, el fin de la física y
de las matemáticas era cosa de tiempo, mentalidad que aún hoy es la base del
pensamiento de muchos científicos conservadores que aferrados al determinismo,
retrasan el desarrollo de la ciencia en
mucha mayor medida que sus aportes.
Sin
embargo no es la
Relatividad de Einstein quien deberá enfrentar al mecanicismo
de Newton, Descartes y Laplace en la superación de la visión determinista en la
ciencia contemporánea; la teoría electromagnética de Faraday apoyada en el
revolucionario concepto de campo de
Maxwell, sentará las bases de la física moderna allanando el camino a la Relatividad General
en su concepción del mundo, siendo la primera ciencia en tener un impacto en la
economía mundial comparable al de la electrónica actual, al permitir el desarrollo
de una serie de aplicaciones de gran trascendencia en el modo de vida de la sociedad como la generación de energía
eléctrica, el equipamiento e iluminación de la vivienda, la publicidad
luminosa, el alumbrado público, el motor eléctrico, la comunicación telefónica
y radial, los rayos X, los tranvías,
etc., iniciando el uso masivo de la
energía y la tecnología en todo el mundo, confirmando el ideal cartesiano de
que las ciencias son la llave para avanzar hacia el futuro.
La
teoría de Maxwell fue el resultado de su analogía con el cálculo de las fuerzas
newtonianas que varían con el inverso del cuadrado de la distancia, pero
también un producto inesperado de
la fisura entre el determinismo de Descartes y la metafísica de Newton debido a
las obscuras definiciones del origen de las fuerzas. En esas circunstancias, para
científicos como Cavendish y Coulomb, las leyes
de Newton, las matemáticas de Leibniz y los trabajos de geometría
analítica de Descartes constituyeron el marco teórico obligado
para avanzar en el desarrollo de los nuevos
fenómenos de la electricidad y el magnetismo que se estaban descubriendo,
puesto que sus conceptos eran inéditos, haciendo recíproco el modelo conceptual
que proporcionó el magnetismo en siglos anteriores para el progreso de la
teoría de la gravedad realizados por Kepler, Hooke y finalmente por Newton y
Laplace.
Hacia
finales del siglo XVIII se contaba con una hipótesis electromagnética construida
según el modelo de Newton estableciendo la universalidad de las fuerzas
ejercidas a través del espacio de manera instantánea y aunque su propagación
inmaterial no concordaba con las mentes cartesianas, la preeminencia del legado
de Newton era absoluta en ese tiempo, por lo que las ideas del
electromagnetismo fueron enunciadas como un nuevo triunfo del mecanicismo
asociado a una maquinaria divina en las ciencias.
Durante
la primera mitad del siglo XIX la teoría del magnetismo
prosiguió explicándose con las pautas
del paradigma mecanicista; en Francia científicos como Ampère y Cauchy analizaron las fuerzas
magnéticas basándose en la ley de Coulomb, uniéndose
a la visión del mundo que este había extendido a la electricidad, criticando a
Oersted por no sumarse a la ortodoxia mecanicista y aventurarse en la
metafísica cartesiana para explicar físicamente esas fuerzas, aunque en
Inglaterra científicos como Faraday, Thomson y Maxwell investigaban el
mecanismo físico subyacente examinando los efectos del medio en su propagación,
pues poseían fuertes convicciones que les inducían a pensar que la interacción
electromagnética requería de un medio físico para actuar, manifestando una resuelta
resistencia a la incorporación de la metafísica en las ciencias y una
progresiva aproximación al pensamiento científico y filosófico que culminará
con el desarrollo de la teoría de campos de Maxwell y aunque este también se
apoyó inicialmente en la representación de un éter que
obedecía las leyes de Newton, las dificultades ontológicas para construir a
partir de ellas una explicación objetiva del campo electromagnético que no se
basara en fuerzas sobrenaturales lo separan progresivamente de la analogía
mecanicista y a pesar de no contar aún con una teoría para explicar su concepto
físico de campo, defendió resueltamente sus ideas dándoles una existencia
física real con el concepto de líneas de
fuerza, presentando finalmente en 1865 A Dynamical Theory of the Electromagnetic
Field la deducción de la propagación de la luz a partir de un campo
electromagnético, demostrando la certeza y realismo de sus intuiciones, que
tendrán una gran trascendencia en teorías posteriores — como la formulación del
campo gravitacional de Einstein — búsqueda que recuerda la de Planck frente al
quantum de propagación electromagnética, pues aunque Maxwell no contaba con una
teoría de campos y estando aún lejos de formularla, sus desarrollos teóricos se
basaron invariablemente en la premisa de los observables.
Puede
decirse que hay un antes y un después de A Dynamical Theory of the Electromagnetic
Field en la ciencia
contemporánea; antes de su publicación en 1865 eran pocos los físicos interesados
en las teorías de campos y quienes no estaban de acuerdo con ellas las calificaban
de simples especulaciones metafísicas; después de su publicación fueron muchos — incluso Einstein — los que se interesaron en las
nuevos conceptos; el motivo para este cambio fue que Maxwell logró cimentar por
primera vez una teoría objetiva, de fácil visualización y de una lógica que
superaba las obscuras fuerzas a distancia de Newton, modificando profunda y definitivamente no solo las leyes de
la física sino las bases mismas de la ciencia, iniciando una revolución ontológica de gran trascendencia en
todo el pensamiento científico occidental.
Desde el
perfeccionamiento matemático realizado por Faraday, las teorías de campos
proporcionan una hermosa solución al viejo problema de la mecánica de cómo un
cuerpo ejerce una fuerza sobre otro, interrogante que puede rastrearse desde la
filosofía griega que Newton analizó por mucho tiempo pero no pudo resolver,
desarrollando el concepto de Deus et
Machina para intentar explicar las incoherentes fuerzas a distancia de la
mecánica determinista, visión mágica del mundo que en círculos del saber formal
ha sobrevivido por casi tres siglos, siendo aún defendida por muchos y en diversos
planos como la base de la iglesia católica en las ciencias.
La
trascendencia de las teorías de campos radica en que las acciones a distancia
se ejercen a través de un medio físico concreto como sustrato activo de la
interacción entre los cuerpos, siendo un paso decisivo para transformar la
visión de un mundo hasta ahí solo explicado por las leyes de la mecánica
newtoniana y aunque el propósito inicial del programa de Maxwell fue extender
las ideas de los fenómenos electromagnéticos a partir del paradigma newtoniano,
las consecuencias de su búsqueda fueron paradójicas porque su teoría se
contrapuso a las de Newton con un status ontológico que retira la metafísica de
la ciencia estableciendo las bases de la física contemporánea al hacerla
objetiva, por lo que en gran medida debemos a Maxwell y a sus conceptos de
campo el desarrollo de la física del siglo XX tal como lo reconoció el mismo
Einstein en una disertación en el Royal College de Londres en que afirmaba:
“Constituye para mí un gran placer tener el privilegio de hablar en la
capital del país en que han surgido las nociones fundamentales de la física
teórica; me refiero a las teorías de los movimientos de masa y la gravitación
estudiadas por Newton y al concepto de Campo Electromagnético que sirviera a
Faraday y a Maxwell para situar la física sobre una base nueva y objetiva”.
“La teoría de la relatividad ha puesto un toque final al edificio
construido por ellos intentando extender la teoría de campos a todos los
fenómenos físicos (de interacción entre los cuerpos) incluida la gravitación. Sobre el tema específico de
esta charla — la teoría de la relatividad — quiero reiterar que esta no tiene
un origen especulativo sino que debe por entero su nacimiento al deseo de hacer
que la teoría concuerde en la mayor medida posible con los hechos observados;
no tenemos en ella un acto revolucionario, sino la continuación natural de una
línea que puede trazarse a través de varios siglos. El abandono de ciertos
conceptos de espacio, tiempo y movimiento (hasta ahora) considerados como
fundamentales, no ha de considerarse arbitrario porque ha sido condicionado por
los hechos observados”.
“La ley de la constancia de la velocidad de la luz en el vacío
confirmada por el desarrollo de la electrodinámica y la óptica así como la
equivalencia de los sistemas inerciales confirmada por el experimento de
Michelson hacen necesario que el concepto de tiempo se convierta en relativo
toda vez que a cada sistema inercial se le adjudica un tiempo propio especial.
En la medida que esta noción se ha desarrollado ha quedado patente que la
conexión entre experiencia inmediata y coordenadas espaciales y temporales no
ha sido pensada hasta el momento presente con precisión suficiente.”
“Dicho de modo más general, uno de los rasgos esenciales de la
relatividad es su esfuerzo por descubrir las relaciones entre los conceptos
generales y los hechos empíricos de una manera más precisa; el principio
trascendental en su caso es que la justificación de un concepto físico estriba
exclusivamente en su precisa relación con los hechos experimentados. De acuerdo
con la teoría de la relatividad restinga las coordenadas espaciales y
temporales aún conservan un carácter absoluto en tanto sean medidas por relojes
estáticos y cuerpos rígidos, pero son relativas en la medida que dependen del
estado de movimiento del sistema inercial seleccionado”.
La
evolución de la relatividad desde Galileo.
Uno de
los desarrollos teóricos de Galileo incorporado por Einstein como argumento
central de la Relatividad
es una idea publicada en 1902 por Poincaré en su libro La Science et
l´hípothese; es una consecuencia de la transformación de Lorentz que
refuta los absolutos de Newton introduciendo la idea que el tiempo y el espacio
son relativos pues varían en marcos de referencia en movimiento. La contracción
de Lorentz y Poincaré incorporada a la relatividad de Einstein como
generalización de la relatividad de Galileo a la velocidad de la luz ha sido
confirmada por diversos experimentos, revelando que el tiempo medido por un
observador en movimiento respecto a otro mide un intervalo más pequeño que el que está en reposo, constituyendo una de
las verificaciones experimentales más importantes de esa teoría.
Aceptar
que el tiempo y el espacio conforman una sola entidad no sólo supone convertir
a ambos en fenómenos físicos, sino también cuestionar la noción de simultaneidad;
Newton pensaba que existe un presente universal en que dos acontecimientos
pueden ocurrir al mismo tiempo en lugares distantes; sin embargo, la
contracción de Lorenz y Poincaré prueba que no existe un momento que tenga
validez universal puesto que al igual que en el espacio, no hay puntos de
referencia temporales privilegiados en
el universo, de modo que dos acontecimientos separados que ocurren
simultáneamente para un observador equidistante, otro que se encuentre en
movimiento entre esos puntos los medirá temporalmente distanciados y aunque en
la vida cotidiana las velocidades comparadas con la de la luz son muy pequeñas
para apreciar los efectos relativistas, eventos que tengan lugar en lugares
alejados estarán en el presente para un observador cercano y en el pasado o en
el futuro para otros en movimiento entre esos puntos, de modo que la única
referencia temporal valida es la de cada observador y su plano de referencia,
generalizando la idea de Galileo de que existe un tiempo propio para cada
evento de la naturaleza, en que el valor de las coordenadas espaciotemporales en
cualquier punto del universo son solo relacionales y nunca absolutas.
En 1907,
las investigaciones en torno a las teorías de Lorenz y Einstein condujeron a
Minkowsky — matemático Ruso-Alemán, profesor de Einstein en la Universidad de Zúrich
que en 1902 se incorporó a la Universidad de Gottingen
a trabajar con Gilbert y Riemann en las propiedades geométricas de los espacios
n dimensionales — a relacionar los conceptos gravitacionales de la teoría de
Einstein con una geometría no euclidiana desarrollada por Riemann,
en que tiempo y espacio constituyen entidades que se integran en un espacio-tiempo
tetra-dimensional en que la transformación de Lorentz adquiere un rango de
propiedad geométrico-relativista, determinando la contracción de su tiempo
propio y un incremento del tamaño de un cuerpo a medida que su velocidad se
aproxima a la de la luz.
Esta
original representación geométrica incorporada como argumento central de la Relatividad General,
amplía los conceptos de la relatividad restringida al combinar la teoría de
campos de Maxwell con el espacio-tiempo tetra-dimensional de Einstein, conformando
un campo gravitacional que por su geometría no euclidea presenta importantes
propiedades topológicas que pueden representarse como una membrana que se
deforma en la proximidad de la materia.
Las
teorías de Einstein constituyen una síntesis genial de
una serie de ideas no relacionadas que logran por primera vez una
representación del universo en que se unifica la gravedad con el espacio-tiempo
y aunque los campos gravitacionales que
describe son casi planos en las proximidades del sistema solar por lo
relativamente pequeño de sus masas — que suponen solo pequeñas curvaturas en su
entorno — sus implicancias en la descripción de la estructura del Universo
fueron más allá de lo que el mismo pudo imaginar y menos aún aceptar; una de
ellas era que las estrellas masivas pudieran comprimirse por acción de su
gravedad hasta que su campo gravitacional las aislase del resto del Universo.
Einstein no creía que semejantes colapsos pudieran ocurrir, pero otros
importantes científicos demostraron que una consecuencia inevitable de la
teoría es que el campo gravitacional resultante de una gran concentración de
materia, genera una curvatura tal del
espacio que la velocidad de escape supera la de la luz, induciendo la formación
de agujeros negros; lo paradojal del genio de Einstein es que las implicancias de
su teoría — que representan su mayor aporte a la cosmología contemporánea — discreparon
con sus creencias religiosas y lo hicieron retractarse de sus conclusiones y
pese a los objeciones de muchos de sus seguidores como Chandrasekaar, Gamow, von
Neumann, Lemaître y el mismo Minkowsky que indicaban la necesidad de un
espacio-tiempo finito en el universo descrito por sus teorías, impugna las
necesarias consecuencias de la relatividad improvisando una hipotética variable
cosmológica que reasigna al tiempo una dimensión infinita y lo regresa al viejo
concepto de Newton. Dicho de otro modo, mientras la Relatividad General
formula por primera vez en la historia de la ciencia una revolucionaria y
original concepción finita del tiempo, del espacio y del universo que ha
sobrepasado en múltiples ocasiones su verificación experimental, el mismo
Einstein se aparta de sus conclusiones, improvisando una cuestionable variable
cosmológica que posteriormente denomina
"el error más grande de su vida”.
Otro de
los desarrollos teóricos de Albert Einstein — de gran fecundidad intelectual en
su juventud — es haber sentado las bases de la mecánica cuántica al advertir
que el quantum determinado por Planck para describir la propagación
electromagnética poseía una realidad física concreta: la carga unitaria de la
onda-partícula que propaga el campo electromagnético denominado
posteriormente Fotón, estableciendo
por primera vez la idea que la materia es simultáneamente onda y partícula. Con
el descubrimiento del quantum de
propagación del campo electromagnético pudo completar las ideas de Maxwell explicando el efecto fotoeléctrico, lo que le
hizo acreedor al Premio Nobel de Física y no la relatividad, concepto
controversial por muchos años en la comunidad científica que ha sido fuertemente rechazado por la iglesia y
al igual que la obra de Galileo considerada “espiritualmente peligrosa”, siendo calificada en Alemania, su país
de origen — donde la discusión anti relativista adquirió un carácter abiertamente
político y antisemita — como “una
ideología disociadora de la ciencia y la sociedad”, siendo denominada por los ideólogos del
fascismo “una ilusión científica de las
masas”.
No
obstante, su actitud ante las implicancias cosmológicas de sus propias teorías
que tal vez constituye realmente el mayor error de su vida se expresó también
en la mecánica cuántica, puesto que los desarrollos iniciados por Planck y por
él mismo que inspiraron a otros físicos como Niels Bohr, Werner Heisenberg y Erwin Schrödinger, en que
el análisis de los observables de las órbitas electrónicas fueron
progresivamente demostrando que en la descripción de la naturaleza microscópica,
el valor de los parámetros conjugados que definen a las partículas manifiestan
una indeterminación o incertidumbre que inicialmente fue confundida con errores en
las mediciones y no como una imposibilidad sistemática; tras
muchos intentos infructuosos concluyeron que el aparente error era una
indeterminación estructural originada en la naturaleza ondulatoria de la
materia que la mecánica cuántica ha denominado Relaciones de Incertidumbre, constituyendo
su principio fundamental; estos conceptos
llevaron a Einstein a afirmar — justificándose en sus creencias religiosas —
que la mecánica cuántica es una teoría errónea, expresando su famosa frase “dios no juega a los dados” con que pasa
a la posteridad su cerrada oposición a una teoría que contaba con sólido
respaldo experimental y aunque el mismo contribuyó a fundar, intervino decisivamente para obstaculizar su desarrollo, actitud que dada
la importancia científica, económica, estratégica y política de la electrónica,
la telefonía celular, los automatismos, la computación y la robótica en la
economía, en medicina y en toda la sociedad, sus afirmaciones podrían considerarse
un verdadero atentado al desarrollo de la humanidad. Como afirmaba Minkowsky —
profesor de Einstein en la
Universidad de Zúrich — “la
relatividad no está en buenas manos”, cuestionando el hecho de no aceptar
las conclusiones de sus propias teorías.
Por
haber sido Minkowsky el primer científico en comprender las implicancias
cosmológicas de la relatividad general enunciando las propiedades de un
espacio-tiempo tetra dimensional mediante la geometría de Riemann, se denomina espacio-tiempo de Minkowsky a una región
espaciotemporal tetra-dimensional no euclidea de curvatura nula que es por
tanto, sin masa.
No obstante, la trascendencia de las
contribuciones de Einstein a la ciencia no radican en la originalidad de las ideas básicas de la
relatividad — que corresponden al trabajo de otros científicos como Galileo,
Lorentz, Poincaré, Gilbert, Riemann, Minkowsky, Schwarzschild, Chandrasekaar,
von Neumann, Göddel, Nordstrom, Fokker, Levi-Cittá y ni siquiera su nombre que
le fue impuesto como anatema por Max Planck, quien estaba en completo
desacuerdo con sus postulados y conclusiones — sino en la unificación de una serie de
conceptos físicos y geométricos que cimentan una revolucionaria visión del
universo en la que subyace una cosmología que deja atrás definitivamente el
paradigma newtoniano, superándolo en precisión y rigor científico al apoyarse
en observables, extendiendo el concepto de campo de Maxwell a la gravedad,
teoría que ha superado en múltiples ocasiones su verificación experimental permaneciendo
vigente por casi un siglo ampliando en gran medida nuestra comprensión del
mundo. Gracias a la
Relatividad de Einstein, no solo los científicos sino que
toda la cultura humana ha avanzado en la comprensión de los fenómenos que
explican el origen y estructura del universo, acercando el quehacer científico
a toda la sociedad.
No
obstante los trascendentales aportes a la comprensión del universo de las teorías de Einstein, el conflicto más problemático
para el futuro de la física ha sido la representación del tiempo en la
relatividad, pues aunque comprendió la necesidad de un tiempo dinámico en las
variables que convergen en la descripción tetra-dimensional del universo, lo
agrega como una dimensión clásica semejante al tiempo de Newton y aunque estuvo
al tanto de las complejas representaciones del tiempo en las teorías de Bohr y
Heisemberg, su cerrada oposición a la mecánica cuántica le impidió incorporar a
su teoría una representación temporal más dinámica como
lo manifestara al proponer la transformación del tiempo en parámetro físico,
incorporando solo su contracción asociada a la velocidad, despojando a la Relatividad General
de un concepto que surge necesariamente de
la Transformación
de Lorentz que a la luz de la dinámica relativista debieron convertirla en una
verdadera revolución espacio-temporal del conocimiento científico, recogiendo
las trascendentes ideas de Aristóteles de un tiempo dinámico asociado al
movimiento; es decir, “formando parte integral de la explicación que puede
darse de la physis” lo que hubiera permitido unificar el tiempo con los
procesos evolutivos de la materia, de la energía y de la vida como ”un marco de referencia subyacente que forma
parte de la naturaleza material y energética que lo integra y por tanto, una
dimensión que cuantifica la irreversible evolución del universo”, visión
dinámica que a excepción de los importantes aportes de Prigogine y sus
estructuras disipativas, está pendiente en la ciencia desde Aristóteles hace 25
siglos.
Stephen
Hawkins en su libro Breve historia del tiempo va aún más allá de la visión
einsteniana reduciéndolo a una dimensión abstracta equivalente a una línea en
un plano no euclideo, defendiendo la idea de un espacio tetra-dimensional con
una dimensión temporal pasiva e indiferenciada de las demás dimensiones
espaciales del universo; por el contrario, desde el punto de vista de la visión
propuesta por Prigogine que implica la irreversibilidad del tiempo y de los
procesos dinámicos de la naturaleza, lejos de mimetizarlo con las dimensiones
espaciales, el tiempo propio es una dimensión que surge irreversiblemente de los
procesos evolutivos de la naturaleza, siendo considerado una propiedad
fundamental del universo puesto que en interacción unitaria con la materia y la
energía establecen la dirección de aquellos procesos evolutivos que determinan
la irreversibilidad de la flecha del tiempo, enfatizando que este no debe ser
entendido como una dimensión única sino que existen tantos tiempos propios como
eventos irreversibles se produzcan en la naturaleza.
El
tiempo y la causalidad.
El
determinismo y la causalidad que subyace en sus fundamentos epistemológicos
aseveran que el mundo físico evoluciona en el tiempo según principios
predeterminados en que el azar es sólo un error accidental sin significado para
la Ciencia,
de modo que es posible generalizar el estado actual del universo como un efecto
del pasado y la causa de un futuro enteramente predecible.
Este
paradigma ha constituido un problema de fundamental importancia en Teoría del
Conocimiento en los últimos siglos y continúa siendo objeto de estudio no solo
desde el punto de vista filosófico sino cultural y hasta semántico, pues se
afinca en hábitos arraigados en la civilización occidental, que han trasformado
en una creencia sistemática la idea que es necesario interpretar los sucesos de
la naturaleza estableciendo cadenas de afirmaciones que enlazan causas y
efectos en forma tan inequívoca que casi todo el mundo las admite como un
requisito indispensable para la descripción y el desarrollo de la ciencia.
No
obstante que para Immanuel Kant la causalidad es una categoría axiomática
apriorística del entendimiento humano, para David Hume no es tan indiscutible
como parece (1740: 93) “no encontramos ninguna prueba material de que exista
una condición necesaria y suficiente entre causa y efecto y solo podemos
penetrar en la razón de la conjunción mediante la imaginación”.
Admitiendo
la consistencia de las reflexiones de Hume, debemos comprender que no es
posible demostrar experimentalmente que un acontecimiento cause siempre otro,
lo que es especialmente erróneo en el mundo subatómico; no obstante, la
pretensión de explicar el mundo en forma causal ha generado grandes conflictos
en la historia del pensamiento occidental, en que la subordinación a ingenuas y
esotéricas interpretaciones causales de los fenómenos de la naturaleza durante
toda la Edad Media
debido a la preeminencia de la religión en las ciencias tuvo graves
consecuencias en el desarrollo científico y económico de toda la humanidad, las
que solo se han podido esclarecer empíricamente a inicios del siglo pasado con
el descubrimiento de la mecánica cuántica cuyo enunciado central — el principio
de incertidumbre — cuestiona la validez de la filosofía causal, demostrando
objetivamente su incoherencia en la interpretación de la naturaleza al poner en
evidencia la indeterminación del comportamiento de la materia, en que muchos
procesos ocurren de un modo más complejo y estadístico que el expresado por el
orden determinista de la filosofía causal.
Aristóteles
— en su obra Segundos Analíticos — estableció las nociones fundamentales de la
causalidad diferenciando en ella cuatro categorías: la causa efficiens del
impulso o energía; la causa materialis referida al componente físico; la causa
formalis relacionada con la forma y
disposición del objeto y la causa finalis, que es el objetivo o teleología de
la substancia. Sin embargo, la pretensión de hallar la causa primera de las
diversas propuestas científicas ha impulsado a supeditar sus fundamentos a
alguna de las cuatro categorías, generándose tendencias contrapuestas; unos
consideran la causa finalis el origen de todas las causas, siendo el propósito
u objetivo quien determina los acontecimientos, constituyendo el fundamento
central de las ciencias filosóficas, del que las ciencias naturales se han
mantenido permanentemente alejadas pues les resulta hipotética la subordinación
de las leyes de la naturaleza a un propósito previamente establecido, de modo
que estas se adscriben al principio energético o causa efficiens adoptado por
estas.
Estas
formas contrapuestas y excluyentes de explicar la realidad, han separado las
ciencias naturales de las filosóficas haciendo dificultosa su mutua
comprensión, pues mientras las primeras sitúan las causas en el pasado, el
modelo de finalidad de la filosofía lo hace en el futuro. Observando los
contenidos de las diversas ciencias, constatamos que unos favorecen la adopción
de una causalidad energética y otros a un destino u objetivo predeterminado;
sin embargo, unas y otras enfatizan diversos planos que se contraponen
unilateralmente a la realidad, pues mientras la causa efficiens establece una
relación dinámica referida al plano material, la causa finalis expresa una
intencionalidad o principio ordenador proveniente de la voluntad de un ser
pensante; sin embargo, ambos puntos de vista no debieran excluirse mutuamente
pues constituyen polaridades de una realidad más compleja que sus partes, que
obliga a una visión de conjunto para su comprensión; de este modo, aislar
alguna de ellas para representar el todo constituye una inferencia sin
significado real para la ciencia, pues ni la iniciativa ni la finalidad bastan
por sí mismas para describir la realidad, pues cada extremo está enlazado con
su opuesto y nuestro propósito debe ser representar el mundo de tal modo que
causas y efectos se integren en un todo unitario indivisible y dinámico en que
hacer abstracción de alguna de sus partes o de sus correlaciones para
representar la realidad puede originar grandes errores.
Muchos
fenómenos de la naturaleza son duales; los imanes poseen dos polos que no
pueden existir separadamente; la luz es una dualidad onda-partícula en que
ambos estados forman un todo biunívoco inseparable; en mecánica cuántica, las
partículas son descritas por una superposición de estados que no poseen valores
independientes sino probabilísticos que presentan un nivel de indeterminación
propia de los estados cuánticos que sin embargo — desde el punto de vista
operacional — representan perfectamente a la partícula, constituyendo el
fundamento binario de la gran transformación que ha experimentado la sociedad
contemporánea con el uso masivo de la electrónica. En todos estos casos,
considerar un solo aspecto de la realidad puede
originar graves errores en la descripción de la naturaleza; del mismo modo, las
causas finalis y efficiens no pueden por sí mismas describir la naturaleza
porque una no puede prescindir de la otra pero en conjunto — e incluyendo su
organización y estructura — pueden aproximarse a una descripción coherente la
realidad, pues la complejidad de los procesos naturales es indisociable.
Sin
embargo, para los científicos la causa finalis es demasiado hipotética e
improbable, por lo que se inclinan por la causa efficiens y para los filósofos
esta es demasiado pobre e insuficiente y como sus proposiciones se vinculan a
un plano más abstracto, optan por la causa finalis. Unos y otros manifiestan la
intención de entender el mundo con fundamentos que aunque pretenden ser
racionales, son solo conjeturas ideológicas que intentan aproximarse a un conocimiento
objetivo de la realidad desde planos semánticos extraños a la ciencia y no con
las herramientas que le son propias: la observación y verificación de los
observables de la naturaleza mediante la experimentación y su modelización mediante las matemáticas; ambos
representan la dualidad determinista que estableciera Descartes entre materia y
espíritu, cuerpo y mente, sujeto y objeto, de modo que entre el observador y lo
observado, entre forma y contenido no haya una relación digna de tenerse en cuenta.
Cree así la causalidad haber
conseguido su ideal frente a la Filosofía: descartar de la Ciencia todo elemento
subjetivo, pretendiendo haber construido una teoría objetiva del mundo cuando
en realidad lo ha disgregado y al hacerlo, lo que aparece no son sus leyes,
sino estados fragmentarios e incompletos de fenómenos que conforman una realdad
más compleja y dinámica que sus partes separadas.
En el
estudio de la evolución, aunque es incuestionable que esta no es un evento
azaroso puesto que ha estado presente desde el mundo prebiótico hasta la
compleja evolución de la vida sobre la tierra, existe un debate que llena
bibliotecas: ¿puede explicarse la existencia de la vida como una cadena causal
desde el pasado hacia el futuro a consecuencia de una sucesión de saltos
evolutivos aleatorios desde el átomo de Hidrógeno hasta el cerebro humano, o
acaso la causalidad precisa de una intencionalidad que opere hacia el futuro
haciendo discurrir la evolución hacia un objetivo predeterminado?
Esta
pregunta permite profundizar en un dilema que no es solo disyuntivo puesto que
alude a la estructura de uno de los parámetros fundamentales del universo como
es el tiempo: la causalidad requiere de una condición de linealidad que
determine un antes y un después, exhortando a que el tiempo transcurra en una
sola dirección desde causa a efecto; no obstante, la evolución es en sí misma
una ruptura de la linealidad pues enlaza el pasado con el futuro en un presente
en permanente evolución, exteriorizando la inconsistencia de la causalidad en
las leyes de la naturaleza; de este modo, el tiempo lineal es solo una
construcción intelectual que proyecta nuestra conciencia, induciéndonos a
fragmentar una entidad temporal unitaria inseparable de la materia y la energía
en una imaginaria correlación que transcurre hacia el futuro, generando la
ilusión que el tiempo fluye independientemente del mundo físico, pasando por
alto que eso que llamamos presente no tiene un valor absoluto como demostró
Einstein, pues cada punto del
espacio-tiempo tiene solo un valor relacional relativo al plano desde donde se
observe, conformando eventos no deterministas sino estadísticos e indisociables
de la materia y la energía como lo muestran la Relatividad General,
la Mecánica Cuántica
y la Evolución,
que en su dimensión temporal se unifica el pasado, el presente y el futuro: el
pasado, pues la materia evoluciona en el tiempo en forma irreversible desde
estructuras simples hasta otras de mayor complejidad; el presente, que — con la
energía disponible — el azar y la
entropía determinan un creciente nivel de eficiencia en un medio en permanente
cambio, y el futuro, en que la incertidumbre de la materia y la energía irán
conformando los nuevos principios de la naturaleza que determinarán la
evolución armónica de sus entes y su sobrevivencia en ese devenir del tiempo
que denominamos futuro
Las
dificultades de una respuesta consistente desde el punto de vista científico a
estos temas muestran que cuando nos enfrentamos con la complejidad y el
dinamismo del mundo físico real, no son apropiadas las relaciones causales, la
filosofía o la religión; de este modo, los procesos evolutivos que se encuentran
generalizados en la naturaleza no pueden ser comprendidos como producto de un
plan preestablecido de creación del universo o la voluntad creadora de un ser
inteligente que actúa desde el futuro, pues son inducidos por reglas locales
que evolucionan desde las existentes a partir de sus contradicciones con el
medio, en que sus posibilidades de subsistir estarán dadas desde un pasado que
se perfecciona y proyecta en ese tiempo propio en permanente cambio que
denominamos presente, en que la limitada energía del medio irá determinando un
progresivo umbral de eficiencia y solo aquellas estructuras que posean las
condiciones necesarias para perdurar frente a la competencia de su entorno
llegarán estadísticamente a predominar, determinando así un futuro no causal
sino probabilístico tanto en el mundo físico como en los seres vivos.
Este
enlazamiento espacio-temporal, que unifica el tiempo con los demás parámetros
de la naturaleza puede hacerse comprensible con una analogía geométrica: si nos
alejamos permanentemente de un punto de la tierra, debido a la curvatura del
planeta regresaremos al mismo punto de partida desde el lado opuesto y en
general, los desarrollos geométricos de Riemann permiten afirmar que en el
universo toda recta prolongada al infinito se transforma en geodésica y termina
por cerrarse en un círculo; extendiendo este concepto a la línea del tiempo veremos que ambos
extremos de la línea — pasado y futuro — se encuentran en el presente, de modo
que la información que las estructuras de la materia requieren para prevalecer
ante la entropía — que se valida en un
presente en permanente evolución para prosperar en el futuro — se recibe
necesariamente desde el pasado, siendo un efecto local no teleológico que
mediante la evolución de los principios de la naturaleza, la materia y la
energía interactúan de un modo discontinuo, azaroso y no determinista
constituyendo el camino que cimenta la irreversibilidad, acoplando el tiempo
con la materia y la energía de un modo cada vez más eficiente; es decir, vivimos
en un presente dinámico que en su
evolución enlaza el pasado con el futuro del mismo modo que en un viaje
alrededor del mundo se regresa al punto original, pudiendo describirse como
partes de un todo que conforma una estructura espacial, temporal y energética
indivisible, funcional y evolutiva, que al hacer cada vez mejor utilización de
la materia y la energía del medio, determina siempre el mejor de los mundos
posibles.
Lo
substancial de estas reflexiones es que el valor relativo de cada elemento del
universo — incluyendo en ellos al tiempo — solo puede ser descrito como parte
de un todo inseparable en que el valor aislado de cada uno de sus parámetros es
solo una abstracción, pues es su relación con el todo lo que le permite
adquirir un valor estadístico enteramente indexado a sus variables locales, en que
la evolución de esas variables y su carácter aleatorio en conjunto con la
entropía pondrán en juego las relaciones entre los elementos y su organización
para constituir un espacio-tiempo-energía que evoluciona hacia el futuro junto
con las demás variables de la naturaleza constituyendo el soporte estadístico
de la evolución de la materia y de la vida; el futuro así descrito está abierto
a procesos siempre nuevos de transformación y aumento de la complejidad no solo
de los sistemas vivos, sino de todo el universo.
Solo
aceptando que el tiempo lineal es una ilusión que no existe fuera de nuestra
conciencia el esquema filosófico de la causalidad deja de tener sentido y se
desmorona. Solo así lograremos comprender que la linealidad que expresa el
determinismo no es más que una construcción subjetiva, una creencia o como dijo
David Hume: “una necesidad del alma”; entonces lograremos advertir lo efímero,
irregular y cambiante pero al mismo tiempo unitario e indisoluble en los
procesos transitivos de la naturaleza que — lejos de ser caóticos — se articulan en eventos constructivos de gran
dinamismo que son el origen de los procesos evolutivos del universo.
Las
dificultades para la comprensión de estos temas obligan también a cuestionar
una serie de supuestos fuertemente arraigado en nuestros sistemas educativos,
de modo que estos reorienten sus argumentos hacia la aprehensión y modelización
de sistemas dinámicos complejos abiertos a los cambios; esto incrementará
nuestra capacidad de comprender, utilizar y construir totalidades que
evolucionan y no para representar los fenómenos de la naturaleza en forma
estática, fragmentaria y polarizada, pues la materialidad del mundo en sus
diversas manifestaciones dinámicas temporales y espaciales es una unidad
indivisible en todas las escalas que
representemos la realidad.
La
probabilidad en los procesos dinámicos de la naturaleza.
Para
Prigogine el progreso científico depende
en gran medida de una estrecha colaboración entre las ciencias naturales y las
ciencias del hombre; a pesar de ser
tan diferentes, Thom y Prigogine coinciden en oponerse a la fragmentación del
conocimiento expresando que: “las
ciencias exactas y las humanas están condenadas a progresar o a perecer juntas.
La ruptura entre ambas disciplinas obedece a que las ciencias humanas relatan
acontecimientos y las ciencias físicas buscan leyes inmutables, pero la ciencia
de la complejidad invalida esta oposición porque los fenómenos físicos son
también sucesos que no obedecen a leyes inmutables y podríamos agregar: la
oposición se disipa cuando advertimos que también es posible analizar los
fenómenos humanos desde el punto de vista de los procesos irreversibles,
entendiéndolos como sistemas complejos alejados del equilibrio”.
Según
Karl Popper (1985: 434) “la probabilidad
de ocurrencia de un suceso singular en la naturaleza debe interpretarse como la
medida de una predisposición inherente de la materia y la energía, un potencial
objetivo para que un suceso físico ocurra”. Para deducir esta definición,
parte de la siguiente aseveración: "Cualquiera
que sea la definición que adoptemos acerca de los enunciados científicos de la
probabilidad, la interpretación frecuencial es fundamental puesto que son
siempre enunciados estadísticos los que sometemos a verificaciones empíricas
para determinar objetivamente su validez” (Karl Popper, 1985: 400). Para
comprender esta aseveración, la siguiente referencia a las condiciones de una
situación experimental es decisiva:
"Con propensión aludimos al potencial de una situación a producir
frecuencias si el experimento es repetitivo; de ese modo, “las propensiones”
son disposiciones a producir frecuencias según la interpretación de la teoría
clásica, pero propensión no significa frecuencia porque hay sucesos que no se
repiten con la frecuencia necesaria para producir una sucesión aleatoria,
aunque pueden tener un potencial estadístico” (Karl Popper 1985: 436) de
modo que los sucesos poco frecuentes son también posibles porque son
objetivamente potenciales y deben ser considerados componentes presentes en
toda expresión de la realidad, pues en cualquier población de seres vivos, de moléculas
de un gas o tirada de cartas de un naipe existirán valores que se apartan del
promedio — que solo representa la tendencia mayoritaria pero no la totalidad —
por lo que debemos entenderlos como propensiones de menor frecuencia que forman
parte estadística de la realidad, pues alguna fracción significativa de sucesos
y ocurrencias de eventos improbables o accidentales se presentará con la
regularidad de una ley de la naturaleza en cualquier situación si la población
es lo suficientemente grande.
Estos
sucesos de menor probabilidad que emergen entre el conglomerado de eventos estadísticamente
más probables, aunque no son fáciles de evidenciar en poblaciones poco
representativas, no pueden ser ignorados por la ciencia pues son capaces de
sobrevivir a la reversibilidad; en palabras del maestro Prigogine: “y aunque el azar constituye una probabilidad
estadísticamente libre, impredecible y
de baja frecuencia, siendo la reversibilidad el estado más frecuente de la
naturaleza, es la raíz misma del edificio de la evolución al permitir a la
entropía seleccionar las nuevas organizaciones de la materia y la energía entre
los eventos azarosos de la naturaleza, consiguiendo apartarse del determinismo
y la reversibilidad con estructuras originales creadas a partir de las
existentes, generándose nuevas combinaciones que deberán poseer la facultad de
ser cada vez más exitosas para preservarse ante la competencia y las crecientes
presiones de un medio con recursos limitados, condición que denominamos
irreversibilidad, que indica una dirección objetiva de la flecha del tiempo
definida por los procesos evolutivos de la naturaleza”.
De este
modo, Prigogine redescubre las ideas de Boltzmann del carácter probabilístico
de la Segunda Ley
de la Termodinámica
y expresa: ”La noción de probabilidad
introducida por Boltzmann en Termodinámica fue un golpe de lucidez de
extraordinaria fecundidad para la ciencia, haciendo de esta verdadera grieta en
el carácter determinista de la materia una fuerza de acción que tendrá una
trascendencia decisiva en la evolución del universo; después de siglos hemos
comenzado a comprender cómo surge la dinámica en el universo a través de la
inestabilidad y el azar: éstos rompen la equivalencia entre el nivel individual
y el nivel estadístico de los procesos de la naturaleza al extremo que las
probabilidades cobran una significación fundamental e imprescindible en los
procesos evolutivos, no reductibles a una interpretación en términos de
ignorancia o aproximación, pues es una propiedad intrínseca de la materia que
determinará con el tiempo la evolución y el cambio” (Ilya Prigogine 1996:
37-38); vale decir, si aceptamos los supuestos de la Mecánica Estadística
deberemos tomar el concepto de probabilidad como un componente esencial de la
realidad material y extraer de él sus necesarias consecuencias; como afirma
Margenau (1970: 261): "si estas probabilidades
son intrínsecas en la materia, deben formar parte de las teorías, siendo
necesario incorporarlas a toda representación objetiva de la realidad”
adoptando expresamente una representación objetiva” “puesto que la teoría subjetiva de las probabilidades surge de la falsa
creencia de que las utilizamos sólo si tenemos un conocimiento insuficiente"(Karl
Popper, 1985, p.321) y que la realidad es determinística como pensaba Einstein
acerca de los conceptos probabilísticos del principio de Indeterminación de la
mecánica cuántica, reflejando sus vacíos epistemológicos en la representación
de la realidad sustentados en una serie de supuestos mecanicistas que aún
persisten en la ciencia.
El
desarrollo de la física del no equilibrio — al permitir una comprensión
profunda de los complejos procesos transitivos de la naturaleza — nos obliga a
reconsiderar una serie de conceptos proscritos desde Galileo, en que la física
vuelve a encontrar la multiplicidad, la eventualidad y el cambio entre los
procesos dinámicos del mundo físico, incluyendo en ellos al tiempo; esto no
niega la evolución de sistemas aislados hacia el equilibrio, pero también hacia
bifurcaciones, inestabilidades, resonancias o el azar del mundo macroscópico y
la indeterminación del comportamiento microscópico que manifiestan los
fenómenos cuánticos, en que las partículas subatómicas definidas por su
comportamiento ondulatorio presentan un grado de indeterminación intrínseco que
no permite definirlas en forma clásica, lo que obliga a revisar una serie de
supuestos como el tiempo e incluso el concepto mismo de materia, que exhortan a
ser definidos en forma inseparable de la energía.
La
flecha del tiempo.
Las
leyes que subyacen tras el comportamiento del Universo han sido descritas como temporalmente simétricas, pues se piensa que las entidades de
la naturaleza actúan sin distinguir entre pasado, presente y futuro, lo que es
enunciado por las dos grandes teorías que representan los procesos del mundo
físico que son la
Relatividad General y la Mecánica Cuántica;
si bien hasta hoy ambas describen un tiempo reversible para definir las conductas
de la materia, percibimos el tiempo moviéndose sólo en una dirección desde el
presente hacia el futuro. No obstante, para Prigogine “la asimetría temporal del Universo no se
refiere a la dirección en que subjetivamente percibimos fluir el tiempo hacia
el futuro — denominada irreversibilidad psicológica — sino a la dirección
objetiva de evolución temporal de los procesos materiales de la naturaleza, en
que pasado y futuro manifiestan una asimetría sobre el presente en que el
pasado inmutable y sin retorno se distingue del futuro en los eventos de la
naturaleza, siendo denominada la “flecha
del tiempo”.
Esta
expresión fue acuñada el año 1927 por el físico y astrónomo británico Sir Arthur Eddington en su libro The
Nature of the Physical World en relación a la Segunda ley de la Termodinámica “para distinguir la dirección del tiempo en
un universo relativista que puede ser comprobada en diferentes sistemas y
escalas de la naturaleza, tanto en átomos y moléculas como en los fenómenos
irreversibles de la naturaleza macroscópica: Tracemos arbitrariamente una recta
unidireccional; si al seguir la flecha encontramos que la proporción del
elemento azar va en aumento en el estado del mundo, entonces la flecha apunta hacia
el futuro; si en cambio esta proporción disminuye, la flecha apunta hacia el
pasado. Designaremos con la frase flecha del tiempo a esta característica del
tiempo sin correlativo espacial pues en el espacio no se encuentra
característica análoga de tener una dirección
determinada.”
Aunque no
compartimos las definiciones de Sir
Arthur en torno al azar y la dirección de la flecha del tiempo, al final de su
frase manifiesta un concepto que establece una importante diferencia entre el espacio
y el tiempo a nivel macroscópico: Si en el espacio podemos movernos de
izquierda a derecha y viceversa, subir y bajar, etc., ¿por qué no podemos ir al
pasado y regresar? Esta observación no es nueva; Aristóteles —reflexionando en
torno a su concepto espacio-temporal asociado al movimiento — había hecho
referencia a esa aparente irreversibilidad de la dimensión temporal que se
opone a las afirmaciones de la ciencia clásica, a la relatividad y a la
mecánica cuántica que aseveran que en la naturaleza pasado y futuro son
reversibles aunque existen una serie de fenómenos cuánticos que hacen necesaria
un reexamen de los conceptos asociados al tiempo pues los existentes no los
explican adecuadamente, como el fenómeno de interferencia— que muestra que una onda debe ir y regresar
del futuro para manifestar la interferencia — o el entrelazamiento cuántico, en que un par
de partículas creadas simultáneamente a partir de una colisión, al cambiar una
de ellas cambia instantáneamente la otra distante sin mediar señal alguna, que además
de recordarnos los paradigmas newtonianos con sus obscuras fuerzas instantáneas
a distancia, violaría el principio de la
velocidad de la luz, pues no puede explicarse en forma determinista cómo una
partícula distante pueda recibir información del cambio de parámetros de la
otra en forma instantánea, salvo que se acepten como leyes objetivas del mundo
subatómico el doble carácter corpuscular-ondulatorio de la materia de modo que
sea representada por campos y no por partículas, cuestión que logra explicar la
simultaneidad cuántica y la interferencia con las leyes conocidas de la física.
No obstante, pese a enunciarse experimentalmente la irreversibilidad temporal
de esos fenómenos, el pensamiento determinista piensa que la incertidumbre
temporal de los fenómenos cuánticos constituyen “paradojas aún no resueltas” en
el mundo subatómico que se deben superar pues “no es que los acontecimientos
sean imprevisibles sino que aún no hemos descubierto las leyes que permitan preverlos”.
En el
mundo macroscópico las cosas no están mejor pues el Segundo principio de la Termodinámica o entropía –– teoría desarrollada para comprender
los fenómenos térmicos necesarios para construir máquinas de vapor, que
describe sistemas aislados que evolucionan hacia el equilibrio –– ha extendido
su empleo hacia todos los sistema de la naturaleza enunciando una flecha del
tiempo que se opone al mundo real, transformándose en un principio cosmológico
que decreta la inevitable muerte térmica de un universo despojado del sentido
creativo de la materia y la energía, sin dar cabida en las leyes de la física a
la evolución del mundo físico y a la vida, aspectos que se tratarán a
continuación.
La Termodinámica
y el tiempo en Prigogine
Para
Prigogine “el tiempo es una dimensión
perdida entre el determinismo de la física clásica y el de la relatividad, que
logró geometrizar el tiempo pero no liberarlo del Nirvana en que ha sido
enclaustrado por el mecanicismo, despojándolo de su sentido creativo como
propuso Einstein sin lograrlo, ocultando en un determinismo tan cerrado como el
de Newton las verdaderas leyes de evolución del universo y de la vida”; por
estas razones, sus esfuerzos se orientan
a la unificación del tiempo con los demás parámetros del universo en un acople
activo con el espacio y la energía en una dimensión espaciotemporal dinámica
asociada a los fenómenos irreversibles de la naturaleza. Sus aportes a la ciencia
contemporánea se centran principalmente en la Termodinámica —
ciencia matemáticamente rigurosa iniciada en 1811 por Jean Fourier basada en el
tratamiento teórico de la propagación del calor en los sólidos — que con su
concepto de entropía describe la irreversibilidad de los procesos de la naturaleza
o como él los llamó parafraseando a Eddington: “aquellos procesos que definen la flecha del tiempo". Esta
ciencia añade otro componente además de la gravitación: la radiación; de modo
que para Prigogine “las grandes líneas de
la historia del universo están constituidas por un equilibrio dinámico entre la
materia y la radiación, en que la gravedad y la termodinámica interaccionan en
los procesos entrópicos y neguentropicos de la materia y la energía definiendo
una clara dirección evolutiva del universo”.
“Aunque la termodinámica es un
campo de la ciencia donde se manifiesta con claridad la irreversible
temporalidad de los procesos de la naturaleza, por muchos años estos fueron temas que no tenían interés entre los
científicos, pues se consideraba una rama de la ciencia de aplicación limitada
a máquinas de vapor que no requería más desarrollo; por su parte, la
irreversibilidad del tiempo ha sido hasta hoy una idea poco aceptada en el
mundo de la física: la mecánica clásica, la relativista y aún la cuántica son
teorías que describen un tiempo reversible y estas dos últimas –– aunque poco
compatibles –– se consideran exitosas y están de acuerdo con los hechos
observados; no obstante, debido a la reversibilidad del tiempo que plantean sus
principios, no dan cabida a los procesos constructivos de la naturaleza,
dejando sin un lugar en las leyes del universo a la evolución del mundo físico y a
la vida, por lo que para ir más allá de Newton, de Einstein y de Schrödinger
será necesario desarrollar nuevas herramientas matemáticas y teorías
unificadoras que permitan superar las incongruencias de la Mecánica Cuántica
y la Relatividad
aunque necesariamente deben ser formuladas a partir de ellas, incorporándoles
un concepto evolutivo que incluya la asimetría y dinámica del tiempo, dando cabida a los
principios reales de la naturaleza que
condicionan la evolución del mundo físico y de la vida en que unidad y
diversidad, reversibilidad e irreversibilidad se unen en las diversas escalas
conformando un todo indivisible en un universo en permanente evolución, cuya
tendencia es opuesta a la entropía”.
“Por más de un siglo la termodinámica centró sus estudios en los
sistemas que evolucionan hacia el equilibrio, generalizando sus leyes a todo el
mundo físico; en ellos pareciera que el
tiempo no transcurre pues pasado y futuro son indistinguibles, lo que hace al
sistema simétrico, reversible, cerrado y sin cambios en su entorno; por el
contrario, en los sistemas alejados del equilibrio la situación es radicalmente
distinta, pues la materia interacciona con la energía haciendo los sistemas
inestables, permitiendo la irrupción de fenómenos de auto-organización y
comunicación, en que la materia adopta configuraciones dinámicas de creciente
complejidad estructural y topológica, estados que a diferencia de lo descrito por la ciencia
clásica, la relatividad y la misma mecánica cuántica, no son simétricos en el
tiempo, puesto que en esta neguentropía característica de la naturaleza que se
opone a la degradación y al equilibrio, se irán
formando nuevas estructuras que expresan una clara dirección temporal, con una
organización de la materia y de la energía que
–– remontando la flecha del tiempo ––
se opone a la entropía, haciendo esos procesos evolutivos e
irreversibles”.
Las estructuras
coherentes de los sistemas auto-organizados, enfatizan el carácter creativo y
estructurante del tiempo en los procesos de la naturaleza, determinando la evolución
de los principios de la materia expresada por Prigogine, que en interacción con
la energía del medio se produce una asimetría de creciente complejidad en todos
los planos de la naturaleza — tanto en los seres vivos como en la materia — por
lo que dichos principios no pueden preexistir y deben evolucionar también en el
tiempo, lo que las teorías deben describir modelizando la evolución de la complejidad
a nivel de los principios que rigen la materia.
En 1972 el doctor
Prigogine pone de manifiesto por primera vez en la ciencia la existencia de
conexiones genéticas en ciertas estructuras coherentes que se forman en la
materia en presencia de energía mediante el análisis de los "Torbellinos
de Bernard" –– corrientes de convección de estructura hexagonal que se
forman en un fluido en desequilibrio térmico –– que muestran como grandes
números de moléculas se auto-organizan y cooperan ordenándose geométricamente
en medio de las posibilidades del desequilibrio que las genera, desde donde
obtienen su energía. El estudio y comprensión de estos fenómenos ha permitido
sentar las bases de una serie de reflexiones acerca de la irreversibilidad y la complejidad en el mundo
físico señalando que más allá que las leyes del mundo microscópico enunciadas
por la mecánica cuántica, junto a los procesos entrópicos existen estados de la
materia en que grandes números de
moléculas interaccionan con la energía formando
estructuras que se ordenan y auto organizan siguiendo patrones coherentes a
nivel de micro y macro procesos; dichas estructuras o dominos (del francés: domains) no son constantes ni
triviales; son dinámicos, fluctuantes, no obedecen a
leyes inmutables y evolucionan en el tiempo pues poseen la capacidad de
ordenarse y equilibrarse tanto a nuevas condiciones externas como internas,
presentando procesos de intercambios de materia, de energía e información tanto
entre sus partes como con el medio en que interactúan, determinando procesos
inéditos de gran trascendencia en la evolución del mundo físico.
De este modo,
la interacción de la materia y la energía induce la formación de procesos locales
auto-organizados que tienen la propiedad de generar nuevas entidades
estructurales y funcionales a partir de las
existentes que serán sometidas a prueba por la entropía, de modo que
solo se preservarán aquellas que presenten condiciones ventajosas en el empleo
de la materia y la energía disponibles en ese medio. Este tipo de
comportamiento evolutivo hasta ahora solo se le asigna a los seres vivos; no
obstante, los sistemas dinámicos se encuentran generalizados en todos los
procesos de la naturaleza presentando propiedad de auto organización, constituyendo
sistemas coherentes que se adaptan tanto a condiciones del medio como a sus
propias dinámicas internas generando complejidad, por lo que la presencia de
conflictos — como turbulencias, resonancias, inestabilidades o el azar — es la
oportunidad de la materia para evolucionar hacia un orden más dinámico, de una mayor complejidad y
eficiencia.
Estas
afirmaciones –– de gran implicancia en las actuales leyes físicas, especialmente
en Termodinámica y Cosmología –– ponen
de manifiesto que cuando interacciona la materia y la energía los sistemas de
la naturaleza evolucionan generando un nuevo orden y una disminución de la
entropía y no desorden y aumento de entropía como afirma sir Arthur Eddington,
quien habrá aludido a hipotéticos e inexistentes puntos del universo en que una
materia abstracta — aislada de la energía — de acuerdo a las conocidas leyes de
emisión de radiación, tendería a llegar a un estado de equilibrio térmico con
el medio, escenario que no representa la realidad en un mundo en que la materia
y la energía interaccionan inseparablemente en todos los confines del universo.
La revisión de los
conceptos de materia y energía: la Mecánica
Cuántico-Ondulatoria.
En 1925 Werner Heisenberg — a la edad de 24 años — se valió de la
dualidad onda-partícula para desarrollar un modelo matricial que permitió por
primera vez predecir de forma teórica los resultados observados en experimentos con electrones:
nacía formalmente la mecánica cuántica. Al año siguiente, Erwin Schrödinger reformularía
el modelo cuántico de un modo substancialmente nuevo conocido como mecánica
ondulatoria, describiendo una ecuación que permite explicar cómo opera un
sistema físico como el electrón a lo largo del tiempo; para enunciarla,
abandona la idea de que el electrón es una partícula, describiéndolo
íntegramente por sus propiedades ondulatorias, lo que es matemáticamente más
sencillo y físicamente más coherente pues corresponde a la naturaleza del
electrón observada experimentalmente. El resultado de esa ecuación — denominada
“función de onda”— es un sutileza matemática que permite describir enteramente al electrón por sus
propiedades ondulatorias sin representar ninguna magnitud o posición en
particular sino todos los valores posibles, definiendo en forma probabilística sus
diferentes magnitudes físicas observables; esto implica que la función de onda no determina el estado
exacto en que estará un electrón cuando realicemos una observación como podría
esperarse en la mecánica de Newton o en la relatividad de Einstein, sino todos
los estados posibles descritos por la ecuación, pero como en toda función estadística,
si el valor de la velocidad se determina con precisión, el valor de la posición
será muy difuso y viceversa, demostrando la imposibilidad de todo conocimiento
determinista de valores conjugados en la materia microscópica, aspecto que solo
permite hacer predicciones probabilísticas con un nivel de indeterminación o error
intrínseco que es independiente de nuestros aparatos de medida, de modo que en
la función de onda de Schrödinger
subsisten las relaciones de
indeterminación enunciadas por Heisemberg, lo que a menudo se interpreta
como un problema de la teoría para conocer el valor de los fenómenos físicos asociados a una partícula.
Sin embargo, estas
relaciones no implican que no podremos conocer con la precisión que queramos la
velocidad o la posición de una partícula en un momento determinado, lo que
podemos hacer con gran precisión; estas solo expresan que no es posible conocer
simultáneamente y con la precisión que
queramos la posición de una partícula y su momento
angular; es decir, no podremos conocer con precisión pares de valores
conjugados, pues la indeterminación se expresa entre magnitudes relacionadas
como posición y velocidad, energía y tiempo de modo que cuanto mayor sea la
precisión con que se mida una variable, menor será la precisión con que
conoceremos la otra y viceversa, por lo que si diseñamos un experimento para
medir con gran precisión la posición de un electrón, el valor medido de su
velocidad será bastante impreciso debido a la naturaleza discreta de la energía
y el carácter ondulatorio de su propagación, de modo que la incertidumbre es
una conducta intrínseca de la materia que no depende del proceso de
observación.
De este modo las
relaciones de indeterminación manifiestan que la materia microscópica posee un
comportamiento estadístico que no admite predicciones deterministas del estado
de un sistema u onda-partícula en un momento específico, puesto que sus valores
conjugados estarán indeterminados en la función de onda que los describe,
tomando todos los valores de esa función en el tiempo; lo que sí existe en
mecánica cuántica —aspecto que ha
introducido controversias en la interpretación de las relaciones de
indeterminación — en que se ha intentado
establecer que la incertidumbre de la teoría estaría determinada por
deficiencias de instrumentos y métodos de medida, sin aceptar el hecho que el
comportamiento ondulatorio de la materia impone limitantes físicas objetivas a
la precisión con que podemos medir valores conjugados, que además de estar
indeterminados en la función de onda, el proceso mismo de medición y hasta la
visualización de una partícula subatómica alterarán el valor de sus parámetros
y por tanto la validez de la medición, de modo que si requerimos conocer con
precisión la velocidad de una partícula subatómica, la información simultanea
acerca de su posición tendrá un límite de error tal que la imprecisión conjunta
de las magnitudes asociadas posee un valor determinado por la constante de
Planck, aspectos que han generado conflictos de interpretación por no reconocer
el hecho incuestionable que los valores probabilísticos poseen un nivel de indeterminación que no
depende de la imperfección en los métodos de medida, sino que es una propiedad
intrínseca de la materia; es decir, es un fenómeno físico concreto de
existencia real en los estados cuánticos del mundo subatómico, que manifiestan
una incertidumbre propia de su naturaleza ondulatoria que los hace
intrínsecamente no reductibles a leyes deterministas. En palabras de
Heisenberg: “el mundo subatómico tiene su
propia métrica, de modo que las partículas se comportan de una forma que no es
posible describir con las nociones que tenemos de ‘anterior’, ‘posterior’,
‘posición’ o ‘existencia’ de modo que cualesquiera sean los conceptos que se
han formado en el pasado en razón del intercambio de información entre nosotros y el mundo físico, la verdad es que no
sabemos hasta dónde pueden ayudarnos a encontrar nuestro camino en el mundo
subatómico pues su significado no está definido sino estadísticamente.
Según Max Born, uno de
los primeros científicos en unirse a la teoría cuántica “como consecuencia de las propiedades ondulatorias de la materia
microscópica y la indeterminación propia de esos fenómenos, la mecánica
cuántica debe ser entendida como una probabilidad estadística sin explicación
causal alguna”, argumento que Einstein se rehusó a aceptar perturbado ante
la idea de que las trayectorias y posiciones en el espacio-tiempo no podrían
ser determinadas, objetando que las probabilidades cuánticas reflejaran los
hechos subyacentes en el mundo microscópico afirmando que las relaciones de
indeterminación se debían a errores en la teoría y no a fenómenos de
indeterminación propios de la materia, opiniones que reflejan una concepción
abiertamente determinista que lo alejaron no solo de la mecánica cuántica, sino
de una serie de conceptos dinámicos de la física moderna que hubieran llevado
sus teorías más allá de sus limitaciones newtonianas en la descripción de la
naturaleza real, discrepancias epistemológicas que le imposibilitaron sumarse a
la cimentación de la más grande edificación intelectual de la humanidad que el
mismo contribuyó a fundar, confinándose por años en un vano intento de
unificación de una relatividad determinista y abstracta con una teoría
probabilística sólidamente fundada en observables,
teoría que nunca comprendió y que no admite su unificación con una teoría
clásica llena de infinitudes, en vez de
unificar sus ideas con los avances de la cuántica, por lo que además de haber
restado a uno de los mejores científicos de su época a uno de los desarrollos
más trascendentes para el futuro de la humanidad, hemos heredado una
relatividad determinista, despojada de los conceptos dinámicos que surgen
naturalmente de la transformación de Lorentz que pudieron transformarla en una
revolución probabilística del conocimiento científico. Por décadas, los mejores
científicos del mundo debatieron en diversos congresos de física las objeciones
de Einstein cada vez más alejadas de la realidad acerca de las Relaciones de indeterminación de Heisemberg,
en vez de recoger las trascendentes ideas del tiempo de Aristóteles asociado a la dinámica del
universo — “formando parte integral de la
explicación que a priori puede darse de la physis” — en que Einstein
utiliza los desarrollos de Riemann y su implicancia en los parámetros del mundo físico desarrollados por
Minkowsky solamente para establecer una cosmología geométrica, abstracta y determinista y no para modelizar la dinámica del universo
que hubiera permitido unificar el tiempo con los procesos evolutivos de la
materia, de la energía y de la vida “como
un marco de referencia subyacente en la naturaleza que lo contiene y por tanto,
la base del movimiento del universo”, visión espacio-temporal dinámica de
Aristóteles, que a excepción de los importantes aportes de Prigogine y sus
estructuras disipativas, está aún proscrita en la física pese a haber sido
formulada hace 25 siglos, creando un gran vacío en la interpretación de la realidad.
La incertidumbre incorporada
a la estructura de la materia tienen una clara expresión en el colapso de la función de onda, fenómeno
en que una perturbación en una región de un sistema físico ocasiona un cambio
global en todos los parámetros de su función, los que varían instantáneamente
no sólo en la región próxima sino en cualquier otra por distante que esté.
Estas variaciones son normales incluso en física clásica de modo que un cambio
de estado en una región distante como resultado de una intervención en algún
punto debe producir cambios en el totalidad del sistema, reflejando el hecho de
que sus partes están relacionadas, por tanto una variación puntual de la
información debe producir variaciones del sistema en su conjunto incluyendo sus
partes distantes. Sin embargo en teoría cuántica el colapso de la función de
onda ocurre en lugares distantes no conectados en forma instantánea, simultaneidad
que se considera un efecto cuántico no-local que violaría el principio de la
velocidad de la luz pues se produce instantáneamente, aspecto que obliga a
integrar los conceptos de Maxwell al mundo subatómico y aceptar que el colapso
de la función de onda así como la dualidad onda-partícula y los fenómenos de
interferencia y simultaneidad serán comprendidos e integrados a las teorías
solo cuando se defina el entorno de las partícula subatómicas y el tiempo como magnitudes dinámicas asociadas a la propagación de un
campo, conceptos que permitirán no caer en las obscuras acciones instantáneas a
distancia de Newton, integrándolos en una teoría de campos que los haga
coherentes con las leyes de la física; mientras tanto, deberíamos investigar y
analizar los observables para obtener pistas objetivas acerca de los fenómenos
cuánticos, cuyas elucubraciones ocultan el hecho de que hasta ahora hemos
pretendido integrarlos con el fórceps de los prejuicios deterministas
intentando incorporarlos al marco de una teoría que ha intentado por casi un
siglo reducir los fenómenos de la naturaleza microscópica a las teorías
clásicas, en vez de describir la complejidad de los sucesos de la naturaleza
con nuevas y dinámicas representaciones que
presentan los fenómenos cuánticos, que pugnan por la transformación de los
viejos conceptos relativistas acerca del tiempo, del espacio y de la energía,
dejando de objetar los efectos cuánticos en la dimensión temporal, que obligan
a incluir la cuantización del tiempo en sistemas complejos con unidades discretas
de Planck y memorias de flujos de información de un tiempo irreversible,
proveyendo un punto de partida natural a diferentes áreas de la física en que
la cuantización del tiempo es importante, permitiendo comprender e incorporar
también la gravedad, la interferencia, la comunicación y computación cuánticas
no a una teoría geométrica abstracta y determinista del universo sino a su
dinámica y evolución a través de una teoría cuántica de campos consistente con
los observables.
Las incompatibilidades que
manifiestan las teorías clásicas en la comprensión de la materia subatómica
señalada por la mecánica cuántica y las relaciones
de indeterminación
de
Heisemberg, reafirman el hecho de que la materia posee un comportamiento
estadístico vinculado a una incertidumbre propia de su carácter ondulatorio,
aspecto que no permite hacer predicciones deterministas pues sus entes
conforman un todo entrelazado que pone fin a la objetividad del mundo clásico que
contrariamente a la opinión de Einstein, implican que la función de onda no
puede representar el estado exacto en que estará el electrón cuando se realiza
una observación como podría esperarse en la mecánica de Newton o en la
relatividad sino todos los estados que permiten las relaciones de
indeterminación, conceptos que lejos de constituir un vacío del conocimiento,
indican que habitamos un mundo complejo y compartimos sus leyes estadísticas,
evolutivas y creadoras de futuro, comprobando que no existe una totalidad
indivisible, sino que estamos inmersos en un universo estadístico, azaroso y en
evolución que nos muestra una vez más que tomar partes del todo definiéndolo
fuera de su medio es imposible sin cometer grandes errores.
En ese sentido, tanto en
la mecánica de Newton como la de Einstein el principio de causalidad establece
que una causa en determinadas circunstancias produce siempre el mismo efecto
posible que es el previsto por la
teoría, lo que desde el filósofo escocés Hume — que objeta este principio — deja
de ser cierto pues “en realidad, no
podemos afirmar que un acontecimiento causa siempre otro” argumento que desafía la certeza de los
cartesianos y otros racionalistas, terminando con los dogmáticos sueños del
determinismo; esa misma perspectiva es también válida en mecánica cuántica,
según la cual las mismas causas pueden producir efectos diferentes
aleatoriamente; es decir, surge el factor estadístico o indeterminación propia
de la materia y la energía que rompe la rígida cadena de causalidad de la
mecánica de Newton y Einstein con mecanismos nuevos e irreversibles que
constituyen la base física de la evolución tanto del universo inmaterial como
de los seres vivos, en el que la
presencia de conflictos –– más que una dificultad –– es una oportunidad de
evolucionar hacia un nuevo orden más complejo y dinámico.
Todos estos conceptos
probabilísticos relegados por años en la ciencia que –– contrariamente a como
los entendía Einstein asemejándolos al Nihilismo — estructuran una visión
evolutiva de la física contemporánea, constituyen el fin de las certidumbres de
una ciencia que vinculó por siglos el conocimiento científico a la falsa
certeza de que con condiciones iniciales "apropiadas" es posible la
previsibilidad y determinación del conocimiento del futuro, en que la novedad,
las mutaciones, la actividad espontánea y azarosa en la naturaleza son
conductas sin sentido en la materia que están restringidas solo a los seres vivos; sin
embargo, hoy sabemos que no es posible determinar en forma causal los caminos
de la naturaleza pues la incertidumbre estadística y hasta accidental de su
comportamiento es irreductible en los diversos estados en que interaccionan la materia y la energía, de modo que pequeñas y hasta
accidentales fluctuaciones o resonancias pueden invadir un sistema engendrando
nuevas estructuras, nuevos regímenes de funcionamiento y/o nuevos niveles de
energía, actividad que caracteriza a toda la materia y no solamente a los seres
vivos. Estas consideraciones obligan a aceptar el hecho que las leyes de la naturaleza no son deterministas, de modo que las
predicciones que podemos hacer del futuro constituyen una intrincada mezcla de
determinismo, probabilidades y azar. El futuro macroscópico así entendido es
tan impredecible como lo muestra la mecánica cuántica, que no está en absoluto
determinando sino sometido a fluctuaciones, bifurcaciones, amplificaciones,
resonancias y a la retroalimentación de la materia alejada del equilibrio que
conforma el mundo real que solo puede describirse en forma estadística, reafirmando
el carácter abierto y creativo de un universo que nos muestran las partículas
elementales, que no se degrada en procesos entrópicos ni sufre una lenta muerte
térmica sino que incrementa su complejidad con nuevas estructuras que emergen
en las galaxias, estrellas, planetas y sistemas biológicos en toda la
naturaleza, en que el aparente desorden no es sinónimo de caos y de entropía,
sino un potencial de reorganización y de creatividad que permite a un universo
en evolución y no en degradación incrementar su complejidad y remontar la
flecha del tiempo.
La disyuntiva
de unión o separación de la Mecánica Cuántica y la Relatividad General.
La Relatividad General y la Mecánica Cuántica
han sido por casi un siglo dos teorías exitosas en sus ámbitos y constituyen la
base de grandes avances de la humanidad tanto en ciencia como tecnología, medicina y economía.
No obstante, existen entre ellas importantes inconsistencias lógicas y
matemáticas pues ambas teorías han fragmentado la realidad en diversas escalas
y mientras la relatividad describe partículas clásicas desplazándose
materialmente en un espacio-tiempo estático, la cuántica las describe
propagándose en forma ondulatoria e inmaterial con un comportamiento dinámico y
azaroso sin posición definida en el espacio y aunque no hay observaciones que
internamente contradigan sus principios, sabemos que es necesario integrarlas
en una teoría que esté en armonía con una naturaleza que no se fragmenta, sino
que es unitaria e inseparable en todas las escalas en que podamos dividir la
realidad.
Actualmente muchos
científicos piensan que el problema más trascendente de la física contemporánea
es enlazar la
Relatividad General –– que describe la estructura e interacción
gravitacional a nivel cosmológico –– con la Mecánica Cuántica,
que hasta hoy explica las otras tres
fuerzas fundamentales que actúan a nivel atómico, puesto que su conciliación
permitiría la unificación de la gravedad a las demás fuerzas de la naturaleza.
Hasta la fecha todos los
modelos cosmológicos se han sustentado en las hipótesis de la Relatividad General
como marco de referencia para sus
conclusiones; no obstante, han habido reacciones con la substrato-dependencia
de la Relatividad
y su inconsistencia con las teorías cuánticas; las objeciones más importantes
son que además de poseer un status ontológico diferente, las teorías de
Einstein se consideran solo proposiciones relacionales no intrínsecas de los
efectos gravitatorios, en que la única información relevante que proporcionan
es una correlación temporal entre acontecimientos distantes, de modo que sus
conclusiones serían prescindibles y contradictorias con una descripción
espacio-temporal dinámica del universo, por lo que esta se debiera incorporar
solo como una cualidad geométrica complementaria de una teoría topológica
substrato-dependiente, ideas que explicita Steven Weinberg en su clásico texto
Gravitation and Cosmology; con él, debemos asumir que la naturaleza actúa en
una dimensión espacio-temporal unitaria determinada por el tiempo propio de los
eventos dinámicos e irreversibles de la naturaleza y no debería representar
exigencias salvo las topológicas para adoptar determinados comportamientos físicos
en diferentes escalas y de existir algún suceso causal que delimite su conducta,
serían los condicionantes del mundo cuántico el fundamento material que
determinarán las conductas estadísticas y la evolución de los procesos
irreversibles en todos los niveles en que la materia interacciona con la
energía de acuerdo al principio de equivalencia de Einstein, por lo que la
teoría cuántica debería extenderse a todos los ámbitos de la física incorporada
como un principio general de la naturaleza –– incluyendo el nivel cosmológico ––
en que los conceptos relativistas y la transformación de Lorentz serán solo un complemento topológico-relacional
del espacio, el tiempo y la energía.
No obstante que la idea
de un modelo cuántico desvinculado de la Relatividad General
entusiasma a muchos, hay quienes piensan que solo se deben modificar sus
propiedades clásicas de modo de representar el espacio-tiempo de forma
estadística con una aproximación que le agregue propiedades dinámico-evolutivas
que eliminen su carácter determinista, que es el punto de vista de importantes
físicos como Roger Penrose, Stephens Hawkins e Ilya Prigogine
y aunque ambas opciones justifican su validación empírica, las condiciones para
que la gravedad cuántica pueda ser estudiada experimentalmente han sido hasta
hoy inaccesibles debido a las enormes energías que se requieren y el único
centro que ha construido equipos adecuados para esas investigaciones, el CERN
en Ginebra Suiza en que ha entrado en operación The Large Hadrón Collider (LHC)
y se esperan obtener importantes novedades en el futuro, aunque pasarán años
antes de conseguir resultados confiables; no obstante, aunque sus conclusiones
puedan ser de inapreciable valor para una comprensión profunda del
confinamiento de los quarks en el núcleo atómico y si bien podrán entregarán evidencias
del comportamiento de la materia necesarias para la verificación de una serie
de hipótesis del modelo estándar — como la existencia del bosón de Higgs — las
investigaciones empíricas no proporcionarán información acerca de la evolución
de los procesos transitivos relacionados con las estructuras iniciales del
universo, que son de gran importancia para la comprensión de la interacción
gravitatoria y del momento angular de las estructuras cosmológicas, aspectos que
reflejan la carencia de una teoría cinético-evolutiva que permita esclarecer el
origen de estas importantes fuerzas de la naturaleza cuyo origen cuántico fue
excluido de su estudio por décadas, cediéndose ese terreno a la Relatividad General
que con su visión clásica y determinista del mundo microscópico, no logra
explicar los fenómenos atómicos asociados a la gravitación ni determinar una
teoría coherente de formación de estructuras cosmológicas, ámbitos
eminentemente cuánticos en que la relatividad general ha demostrado carecer
absolutamente de competencia
Eros y Thanatos.
En la naturaleza existen dos tendencias opuestas, que han sido representadas en la
mitología griega por Eros y Thanatos: mientras Eros construye, Thanatos actúa
cumpliendo el obscuro destino que las Moiras — la personificación del Fatum,
fatalidad o destino — dictaban. Freud utilizó también estas legendarias figuras
mitológicas considerando que la dualidad de la naturaleza humana surge de dos
instintos contrapuestos: mientras Eros es el instinto de la vida, del amor y la
sexualidad en su amplio sentido como impulsión hacia la reproducción y la vida,
Thanatos es el instinto de destrucción, de repulsión y de muerte; uno lleva a
la preservación y a la evolución de la especie, el otro hacia su destrucción.
Así también Prigogine entiende el universo afirmando que “mientras la materia inanimada tiende naturalmente a distribuirse en el
espacio en busca del menor nivel posible de equilibrio, estabilidad, dispersión
y certidumbre — generando homogeneidad, desorden y aumento de la entropía— la
energía siempre presente en el universo genera inestabilidad y la materia se
auto-organiza configurando estructuras cada vez más complejas que se oponen
progresivamente a las tendencias entrópicas, exhibiendo procesos constructivos
caracterizados por una creciente organización que posibilita la interacción y
comunicación entre sus partes, produciéndose intercambios de energía, de
materia e información, permitiendo generar nuevas estructuras que presentan un
aumento en su complejidad y una disminución de su entropía respecto al medio”;
en este sentido, el conflicto se plantea entre la tendencia al desorden que
presenta la materia — entendida como un
sistema abierto a las interferencias del medio y la energía — de modo que cuando
aparece la tendencia al desorden y al equilibrio, la inestabilidad de la
materia y la energía generan
procesos de auto organización que pueden llevar al sistema físico tanto a un
estado reversible de menor energía y desorden o a que se instaure una nueva
organización que deberá tener la capacidad de subsistir, oponiéndose tanto a
las condiciones entrópicas del medio como a sus propias dinámicas internas que
tienden al equilibrio y la degradación.
El término
auto-organización fue introducido por el filósofo y matemático británico Immanuel
Kant en La Crítica del
Juicio, expresando que “la
materia alejada del equilibrio se auto-organiza en una dinámica de acoplamiento
estructural conservando sus límites en una producción de complejidad, de modo
que cualquier cambio en la energía del medio llevará a un nuevo estado de
actividad de la materia cuando sus interacciones adquieren un carácter
recurrente por un tiempo significativo”.
La subsistencia de los
sistemas auto organizados en la naturaleza se debe a un tipo de equilibrio
dinámico que surge en la materia a partir del intercambio de energía e
información entre sus elementos y el medio, en que grandes grupos de moléculas
se ordenan y organizan conformando estructuras coherentes que perdurarán solo
si poseen la facultad otorgada por las relaciones entre sus partes de
preservarse ante perturbaciones externas si estas no exceden de ciertos límites,
de lo contrario se destruirán. Esta particularidad — considerada la característica
más importante de los sistemas dinámicos — hace indispensable una nueva visión
de la realidad que considere el carácter no lineal del comportamiento de la
materia y el sentido evolutivo en la organización de una naturaleza en que la
entropía no determina por si misma el futuro de un sistema, sino que constituye
una presión de selección para reciclar aquellas estructuras que no representen
la mejor de las probabilidades, incrementando
las oportunidades y descartando las debilidades en un medio que consigue
apartarse del determinismo y la reversibilidad con estructuras originales
creadas a partir de las existentes, que para
preservarse deben poseer la facultad de ser cada vez más eficientes ante las
presiones entrópicas del medio, condición irreversible que determinará la
dirección de la flecha del tiempo definida por los procesos evolutivos de la
naturaleza en que se generan nuevas organizaciones, en que la respuesta que
subsista en el medio será la mejor opción de las variables disponibles, de modo
que parafraseando a Leibniz, podamos afirmar que nuestro mundo evoluciona sin
leyes preexistentes, sino cada vez como “el mejor de los mundos posibles.”
Al igual
que las letras de una
palabra no definen su significado, las moléculas de un compuesto, de una célula
o de un grupo coherente de ellas no determinan por si mismas sus cualidades; lo
esencial no es solo lo cuantitativo sino la organización que vincula sus partes
constituyendo estructuras dinámicas que rigen su actividad y jerarquizan su
información, siendo el nivel de su organización basado en complejas relaciones
de comunicación, equilibrio e
interacción entre sus partes el que define su dinámica interna y su capacidad
de adaptación e interacción con el medio. Estos patrones de organización y comunicación
en que surgen propiedades nuevas en
la materia, que pueden ser descritas como sistemas complejos que unifican tanto
la información como las respuestas dinámicas de sus constituyentes ante el
medio, características que nos permiten describir su comportamiento con el
concepto de red asociado a los sistemas dinámicos derivado de las complejas
relaciones que su disposición hace surgir entre sus partes, definiendo niveles
de acción e información con el medio en que interacciona con la energía, lo que
puede conducirlos hacia estados estables y reversibles, hacia condiciones dinámicas
e irreversibles e incluso hacia condiciones reversibles de alta energía
descritas como caóticas, aunque dichos estados en un sistema abierto en
presencia de energía son fuente de orden y organización y no de desorden, pues
la materia en presencia de energía buscará siempre un estado coherente de
equilibrio dinámico e irreversible con su medio.
De este
modo, los sistemas alejados del equilibrio aportan un descubrimiento de gran
consecuencia para la física: el azar introducido por la mecánica cuántica no se
limita a las partículas elementales, sino que se extiende en forma unitaria a
las propiedades de la materia macroscópica; Prigogine afirma que “se trata de una generalización de las
relaciones de Indeterminación de Heisemberg a la materia macroscópica, en que
más allá de cierto umbral de complejidad, los sistemas siguen rumbos
imprevisibles, perdiendo sus condiciones iniciales, tendiendo a reordenarse
constituyendo estados irreversibles de
mayor energía que sus precedentes, en que esta predomina sobre la materia”.
Estas afirmaciones abren nuevos caminos en la comprensión de la naturaleza y
muestran la paradoja que si bien la materia macroscópica aislada posee una
tendencia natural a progresar estadísticamente hacia condiciones de mayor
entropía y equilibrio, existe también en la naturaleza la tendencia opuesta, en
que la materia en presencia de energía forma bucles de irreversibilidad, presentando
condiciones de mayor organización que sus estados precedentes, de modo que en
la evolución de los procesos de la naturaleza si bien se cumplen los principios
fundamentales de la termodinámica, lo hacen de una forma hasta ahora no
advertida, de modo que pueden conformarse tanto sistemas cerrados que
evolucionan hacia el equilibrio o estructuras neguentropicas complejas e
irreversibles, pero también hacia estados reversibles de alta energía denominado
caóticos en que la entropía local del sistema disminuye y contrariamente a lo
que afirma el Segundo principio de la Termodinámica, son fuente de creación de
complejidad y no de degradación, lo que se observa en todos los ámbitos del
universo no solo en los organismos vivos, en el que los conflictos de la
materia con la energía abren posibilidades de evolucionar hacia un nuevo orden
más complejo y dinámico.
Desde el
estudio de la inestabilidad de Bernard sabemos que a niveles macroscópicos, en
presencia de energía la
materia es inestable, pudiendo engendrar nuevos estados que se desarrollan
tomando un curso aleatorio e imprevisible denominado caótico o generar procesos
coherentes de mayor complejidad; de este modo, no es que se contradiga el Segundo
principio de la
Termodinámica — la ley del crecimiento irreversible de la
entropía formulada por Rudolf Clausius
en 1865 — en un sistema aislado esta aumenta con el tiempo, pero estos sistemas
son ideales y no representan a la naturaleza pues en el universo no existen
puntos aislados de la energía
que en forma de radiación electromagnética, gravedad, momento angular y carga
eléctrica inunda todo el universo; aun así, explica Penrose: ”un sistema aislado que sufre una
perturbación puede no retornar a su equilibrio inicial y amplificar sus
fluctuaciones, provocando una polarización que hará posible nuevos estados de
evolución y organización de la materia”; estados que no se oponen a la
entropía sino que la superan generando cambios complejos, evolutivos e
irreversibles que subsisten en un tipo de equilibrio dinámico con su medio
denominado homeostasis.
De
acuerdo con estas ideas, los desarrollos teóricos de Prigogine manifiestan que
en presencia de energía, la materia inanimada constituye sistemas complejos
auto-organizados capaces de retroalimentarse oponiéndose a la tendencia natural
de degradación del cosmos expresada por la entropía, que tiene la capacidad de
degradar la materia solo en estados
aislados de bajo nivel de organización y complejidad aunque en el mundo
real, todos los sistemas de la
naturaleza interactúan con la energía que inunda el universo, de modo que los
seres vivos no son los únicos sistemas dinámicos de la naturaleza capaces de
acumular neguentropía e ir de la simplicidad a la complejidad, de la dispersión
a la concentración, de la improbabilidad a la probabilidad y a la creatividad,
en que la materia se auto-organiza logrando elevarse por sobre las tendencias
negativas de la entropía adquiriendo estados dinámicos coherentes de mayor
complejidad y menor incertidumbre que el precedente a partir de la energía del
medio, subsistiendo a las presiones de la entropía, estado que por oposición
denominamos neguentropía.
La
neguentropía puede definirse como una propensión inherente de la materia a
constituir organizaciones coherentes en presencia de energía, lo que no se contrapone
al segundo principio de la termodinámica sino que lo complementa, revelando que
en la materia organizada prevalece un concepto de eficiencia que permite la
preservación de nuevas estructuras, en un medio cambiante y con recursos
limitados en que todo lo que no se organice en forma coherente logrando un
equilibrio con la energía y no presente ventajas frente a las presiones del
medio tenderá a degradarse, estado que empleando
la energía disponible, estructura
la materia en forma más eficiente que cierto umbral definido por la entropía
del medio, originando un progresivo incremento en los niveles de complejidad y
organización de la materia, definiendo una clara dirección evolutiva de la naturaleza,
reduciendo la incertidumbre de los sistemas abiertos que Prigogine define como
“estructuras disipativas”, que se encuentran generalizadas en todos los ámbitos
de la naturaleza incluyendo a los seres vivos.
La
neguentropía de las estructuras disipativas no debe definirse por antítesis
como un concepto que describe conductas de la materia que se oponen a la
entropía sino como un mecanismo constructivo de la naturaleza que incluye a la
entropía no como una tendencia absoluta, sino determinando un umbral de eficiencia
en un medio que evoluciona hacia la complejidad. De este modo, así como la
entropía establece que la materia aislada tiende a degradarse hacia un estado
indiferenciado de equilibro con el medio, la neguentropía expresa una
propensión natural de la materia en presencia de energía de producir un tipo de
auto-organización que tiende a un equilibrio dinámico y a un incremento de la
complejidad, originando estructuras caracterizadas por el incremento de la
información, de comunicación y de adaptación con su medio; esto crea en la naturaleza una tendencia constructiva,
de modo que la materia tiende a evolucionar en su conjunto hacia parámetros
cada vez más complejos y aunque el incremento de complejidad no viola el Primer
principio de la
Termodinámica pues dichos estados se obtienen disipando
energía, las estructuras disipativas determinan con el tiempo un universo de
creciente complejidad, organización e información en una naturaleza que —
interactuando con la energía — evoluciona cuantitativa y cualitativamente hacia
estados cada vez más coherentes, de modo
que la entropía — lejos de ser un mecanismo negativo de degradación — actúa en
la naturaleza seleccionando aquellas organizaciones de la materia que logran
sobrepasar un creciente nivel de eficiencia determinado por el nivel de evolución del medio.
Esto no
objeta la validez del Segundo principio de la Termodinámica sino
que lo separa del rol auto-otorgado de axioma cosmológico que señala una falsa
tendencia de un universo reversible que se aproxima a la muerte térmica,
impugnando la clasificación misma de dichos estados como categorías desde el
punto de vista epistemológico puesto que más allá de cierto umbral de energía, los
estados reversibles se hacen caóticos, aspectos que resaltan tanto la necesidad
de añadir en su descripción una serie de factores topológicos, temporales y
energéticos para representar el intercambio de materia y de energía así como la
necesidad lógica de encontrar nuevos términos para describirlos, puesto que los
actuales carecen de sentido y son a fin de cuentas deterministas y
contradictorios con la evolución de los fenómenos de la naturaleza, señalando
la muerte térmica de un universo que evoluciona irreversiblemente en el tiempo,
acrecentando su complejidad.
Esto no
afirma que haya solo una sola dimensión temporal en el universo, sino que la
materia y la energía indisolublemente unidas
conforman un todo que muestra un comportamiento estadístico y unitario que
genera una conducta coherente y evolutiva y puede asegurarse — si hablamos del
tiempo propio que determina cada evento del universo que desde Einstein
reconocemos en la ciencia — este espacio-tiempo tetra-dimensional dinámico debe
constituir el universo de sucesos en todas las dimensiones que la materia se
expresa en cada evento de la naturaleza en que se manifiesta el carácter
indeterminado, estadístico y unitario de las diferentes escalas en que
analizamos la naturaleza, haciendo necesario un nuevo paradigma relativista
dinámico que describa los procesos evolutivos en que se modifica el
espacio-tiempo, ampliándose los conceptos de relatividad a las propiedades
topológicas de la interacción de la materia y la energía, aspectos en que el
tiempo propio de cada proceso definirá la evolución temporal del sistema determinando en su conjunto una dirección irreversible de
la flecha del tiempo.
Al igual
que la afirmación de que en la naturaleza real no hay posibilidad de encontrar
sistemas aislados que evolucionan hacia el equilibrio como propone la entropía,
puesto que todo el universo se halla inmerso en un proceso radiativo que define
su tamaño y velocidad de expansión, en que no hay un punto en que no haya energía y movimiento, por la misma razón no podemos hablar
de materia aislada en el universo, reducción determinista de una realidad que
muestra estar siempre en movimiento relativo interactuando con la energía que –– en forma de radiación electromagnética y
momento angular –– se encuentra inmerso nuestro universo en permanente
expansión.
No
obstante, la comprensión de la dualidad de los procesos macroscópicos reversibles
de la naturaleza, en que la energía del medio permite formar bucles de
irreversibilidad que determinan con el
tiempo una suma inédita de procesos globales de evolución, nos permite
comprender que la indeterminación o incertidumbre que presenta el mundo
cuántico no puede comprenderse al margen de los procesos del mundo macroscópico,
puesto que conforman el fundamento material sobre el que se estructura la
naturaleza, en que la entropía determina ya a nivel de micro procesos un
creciente umbral de eficiencia en las
propiedades de la materia y la energía en las nuevas estructuras que se forman,
comprendiendo que los desequilibrios de la materia en interacción con la energía
articulan estructuras auto-organizadas que — seleccionadas por la eficiencia
del medio — serán la mejor respuesta posible a las energías disponibles,
determinando un creciente nivel de eficiencia al reciclar aquellas estructuras
que no sobrepasen cierto umbral explicitado por la complejidad del medio; esto
nos permite afirmar que también la entropía –– considerada no como un entidad
externa omnipresente sino como una propiedad inherente de la materia que opera
unitariamente –– constituye un umbral que evoluciona con la complejidad del
medio, representando el quantum de organización interna que ha obtenido
globalmente un sistema como conjunto en un medio que compite por recursos
limitados que — a través de exigir soluciones cada vez más asertivas en la organización
de la materia y en el empleo de la energía — logra disminuir progresivamente la
cantidad de incertidumbre o entropía que prevalece en los sistemas físicos de
la naturaleza; de este modo, el estado actual del universo refleja el tiempo
propio de una historia cosmológica que ha evolucionado a partir de condiciones
de desorden y elevada entropía, generando en forma irreversible las actuales
estructuras de la naturaleza.
Esto
impugna también la afirmación que solo un estado en equilibrio térmico es invariante
ante la inversión temporal, pues los estados de alta energía denominados
caóticos formados a partir de condiciones alejadas del equilibrio son también
invariantes ante la inversión temporal, lo que hace posible comprender que
puedan generarse estados irreversibles de mayor energía y menor entropía a
partir de estados considerados hasta ahora como reversibles, aspectos que abre
nuevos espacios en la comprensión del tiempo, la materia y la energía, en que
los conceptos de reversibilidad e irreversibilidad de los fenómenos de la
naturaleza pierden su sentido opositor, relativizándose dialécticamente y
remontando la tendencia de la entropía para describir estados de evolución
espacio-temporal reversibles descritos por la termodinámica estadística que
pueden ser de mayor energía que sus estados precedentes, lo que además de
exigirnos el empleo de nuevos términos para describir la reversibilidad, señala
un aspecto Gestáltico en que la materia y la energía evolucionan en el tiempo
con lazos neguentropicos cuyo futuro no es una fatalidad lineal sino un estado
finito e indeterminado de evolución de la materia, retirando a la entropía del
concepto de inevitable muerte térmica del universo para asignarle una función
creadora, evolutiva e indicadora de la flecha del tiempo en los sistemas
físicos de la naturaleza, focalizando nuestra búsqueda del origen del tiempo
hacia los procesos de la naturaleza que definen su evolución, pues desde un
punto de vista físico, esa definición ha estado erróneamente relacionada con la
entropía comprendida como una tendencia a la degradación de un universo, en que la naturaleza nos muestra que la materia se
organiza evolucionando hacia estados de mayor complejidad y de menor
incertidumbre, de modo que la entropía
asociada a la neguentropía –– considerada como el conjunto de eventos
evolutivos de la naturaleza ––apuntan hacia el futuro como afirma sir Arthur
Eddington, aunque el universo que describen es opuesto a la degradación que
este afirma para el futuro.
Este
modo de comprender el universo nos permite repensar los comportamientos
macroscópicos, que vistos desde un prisma evolutivo, no están en contradicción
con el comportamiento microscópico, puesto que la naturaleza como hoy la
entiende el mundo cuántico necesita recorrer todos los caminos posibles para
encontrar estadísticamente las configuraciones más adecuadas al medio y a sus
procesos evolutivos. Esto no afirma que los estados reversibles no existan; al
contrario, asevera que la física de la reversibilidad está plagada de bucles irreversibles,
de modo que como las interferencias constructivas y destructivas en teoría
ondulatoria, la naturaleza como conjunto
apunta en forma estadística hacia la irreversibilidad y la evolución del mundo
físico expresada por la sumatoria de procesos constructivos y no a una
tendencia a la degradación que señala la entropía. En su conferencia “El nacimiento del tiempo” (Roma 1987),
Ilya Prigogine sostuvo: “La entropía
contiene dos elementos dialécticos: un elemento creador de desorden pero
también un elemento creador de orden; de este modo vemos que la inestabilidad,
las fluctuaciones y la irreversibilidad desempeñan un papel constructivo en
todos los niveles de la naturaleza: químico, ecológico, climatológico, biológico,
molecular y finalmente cosmológico”.
En un mundo
pródigo de energía en que la materia
se auto-organiza logrando superar
a la entropía con estructuras coherentes e irreversibles que prosperan en su medio, el tiempo revela su significado
evolutivo materializando su unidad con la materia y la energía de un modo cada
vez más complejo y eficiente, determinando a nivel macroscópico un sentido coherente
con nuestra percepción subjetiva del tiempo, aunque a nivel microscópico solo
en la reversibilidad del tiempo y el espacio, la materia y la energía del
universo pueden abrir un espacio-tiempo virtual para hallar las configuraciones
más adecuadas a las crecientes
exigencias del medio, aspecto que no debe introducir contradicciones
epistemológicas en las leyes de la naturaleza, sino generar un concepto de complementariedad
y armonía de sus elementos en las diferentes escalas en que se estudie.
La
paradoja de la reversibilidad.
Aunque mucho
antes de Heisenberg los británicos Hume y
Berkeley habían hecho fuertes
críticas al determinismo, el concepto de tiempo en la ciencia ha estado
supeditado a una visión reversible sustentada en el Segundo principio de la Termodinámica y sobre todo en la visión de
Einstein, para muchos el principal defensor del determinismo de Newton en la
física contemporánea. Siguiendo
ese enfoque, el matemático y filósofo británico Bertrand Russell afirma que “el orden temporal de los acontecimientos
depende solo del observador, en que el concepto de tiempo sólo tiene significado
en el marco de referencia en que este se encuentra, por lo que dividir el
tiempo en pasado, presente y futuro carece de significado para las ciencias
naturales”, de modo que para muchos científicos como el matemático Herman
Weyl así como Russell y Einstein, la existencia del tiempo es relativa y existe
un tiempo propio a cada evento de la naturaleza, de modo que nuestra percepción
irreversible del tiempo es una construcción mental sin importancia para la
ciencia.
No
obstante el carácter ilusorio del tiempo descrito por Einstein y sus seguidores
sintetizando su visión subjetiva de la ciencia, no podemos ignorar que los observables de la
naturaleza objetan las aseveraciones de la relatividad y de entropía, pues son
los procesos constructivos del universo y no una teoría la que nos indica que
este tiene una historia irreversible;
es decir, un tiempo con pasado, presente y futuro en que la irreversibilidad penetra en todas las dimensiones
de la naturaleza desde el nivel cosmológico hasta el mundo cuántico,
estableciendo los principios básicos de la evolución del mundo físico y de la
vida.
Según
Nash: "La
Termodinámica no ha proporcionado ninguna prueba de que los
procesos espontáneos deben realizarse siempre con aumento de
entropía"(1974, p.53) pues hasta ahora el Segundo principio de la Termodinámica se ha
erigido como un modelo cosmológico sustentado en hipótesis deterministas,
tautologías, conjeturas y no en los observables de la naturaleza, transformando
a la física contemporánea en un sistema de ideas tan interpretativo como la
filosofía, por lo que Kuhn nos advierte sobre la falacia que significa un
conocimiento especulativo que no intenta mejorar el conocimiento de la ciencia
sino exclusivamente el de los paradigmas vigentes, tratando de hacernos asumir
la idea de un universo entrópico cuando paradojalmente la realidad presenta por
todas partes procesos constructivos sólo explicables desde una perspectiva
neguentrópica en la organización de los procesos de la naturaleza y aunque
estos ocurren en menor medida que los procesos entrópicos, definen un claro
sentido hacia la complejidad y evolución
del mundo y no hacia la inevitable muerte térmica del universo que establece la
entropía.
La
inconsistencia de nuestras teorías físicas.
La
naturaleza no presenta la inconsistencia que muestran nuestras principales
teorías físicas, pues es un todo coherente que no se fragmenta en escalas sino
que es unitaria e inseparable, lo que hace posible descubrir patrones de
comportamiento generales que permiten una representación integral del universo,
formulando leyes y teorías de una ciencia que no será nunca una narración de la
naturaleza, sino una construcción del intelecto humano en su intento por
comprenderla; de este modo, las paradojas que presentan las teorías físicas y la división en escalas
macro y microscópicas son muestra de su inconsistencia y una señal de alerta de que los modelos que
construimos para interpretar el mundo físico no se ajustan al comportamiento
unitario de la naturaleza, en que el único camino para resolverlas es a través
de los observables y no mediante conjeturas.
Aunque a
nivel cuántico la condición ondulatoria y estadística de la materia no tiene
exigencias para adoptar leyes físicas que se asemejen a las del mundo macroscópico,
la dualidad de los procesos de la
naturaleza que — junto a la reversibilidad habitual de la materia, la energía
del medio y su propio comportamiento estadístico le permiten formar bucles de
irreversibilidad que determinan su evolución temporal — nos permiten comprender
que la indeterminación o incertidumbre observada a nivel cuántico no puede
interpretarse al margen de los procesos del mundo macroscópico, puesto que los
entes subatómicos conforman la base material sobre el que se estructura el
mundo macroscópico en que la entropía
determinará ya a nivel de micro procesos, un umbral de creciente
eficiencia en el utilización de la energía y las propiedades de la materia en
las nuevas estructuras que se forman, de modo que sean la mejor respuesta a las
condiciones del medio y la energía disponibles, definiendo un creciente nivel
de eficiencia al reciclar aquellas estructuras que no sobrepasen un umbral de
eficacia determinado por la complejidad del medio, idea que permite afirmar al
doctor Prigogine “que también la entropía — no considerada un ente
supra-presente sino una propiedad inmanente de la materia en todas las escalas — debe constituir un umbral que evoluciona
también con la complejidad del medio, representando el grado de evolución u organización interna que debe tener el sistema
en un medio que compite por recursos limitados y que a través de ella —exigiendo
soluciones cada vez más asertivas en el empleo de los recursos en la naturaleza
— se logra disminuir la cantidad de incertidumbre o entropía que prevalece en
el universo”.
Este
modo transitivo e irreversible de comprender el universo nos permiten
reexaminar el comportamiento de la materia macroscópica que — visto desde un prisma evolutivo — no está en
contradicción con el comportamiento estadístico del mundo microscópico puesto
que la naturaleza — como hoy se entiende el mundo cuántico — necesita explorar
todos los caminos posibles para encontrar estadísticamente las configuraciones
más adecuadas a sus procesos evolutivos. Esto no afirma que los estados
reversibles no existan sino por el contrario, afirma que la reversibilidad del
mundo físico — que se reproduce en las diferentes escalas en que dividimos
arbitrariamente la realidad — exhibe bucles de irreversibilidad sustentados en
los comportamientos estadísticos y
azarosos y hasta accidentales de la materia, de modo que en su conjunto —
como las interferencias constructivas y destructivas en teoría ondulatoria — el
universo evoluciona en forma estadística hacia la irreversibilidad expresada
por los procesos constructivos de la naturaleza y no hacia una tendencia a la
degradación señalada por una entropía erradamente convertida en principio
cosmológico.
La
representación de los estados reversibles e irreversibles no contrapuestos en
las diferentes escalas en que arbitrariamente dividimos la realidad para
comprender su evolución, nos permite aproximarnos a una comprensión más
profunda y creativa de la entropía en la evolución de la naturaleza, en que su
comportamiento macroscópico se extiende al mundo cuántico, en que no todas las
estructuras que se formen permanecerán puesto que la presión del medio generada
por la entropía revelará estadísticamente las respuestas que mejor se adapten a
las condiciones de un medio en permanente cambio, logrando que en su conjunto este
evolucione hacia estados de progresiva complejidad a nivel molecular, situación
que cuestiona en todos los planos de la realidad las tendencias entrópicas de
la materia en interacción con la energía, que no puede dirigirse
siempre a estados de menor complejidad, puesto que desde Darwin sabemos que no
es la dirección que sigue la materia en el universo.
Por lo
expuesto, sabemos que muchos de los conceptos deterministas acerca del tiempo
deben ser reformulados a la luz del comportamiento real de la materia, puesto
que la incongruencia de nuestras teorías son solo paradojas del pensamiento
inexistentes en una naturaleza unitaria, que hace a los científicos estrellarse
contra el muro de los imposibles pretendiendo construir teorías fundadas sobre
conceptos que aparecen como verdades inamovibles, que lejos de iluminar nuestra
búsqueda, nos impiden oponernos a una serie de conjeturas indemostrables que se
han convertido en obstáculos para comprender una realidad que es distinta a la
expresada por la entropía y el tiempo de Newton y Einstein, que debe reducirse solo
a determinar el umbral de incertidumbre que prevalece en un sistema y no en el
marco general de la evolución y organización de la materia y la energía del
universo. Ahora es más necesaria que nunca la actitud de Planck ante la ciencia
pues aunque los observados no armonizaban con sus ideas, utilizó la
cuantización de la energía como apoyo matemático para explicar el fenómeno
físico que la originaba, avanzando como Aristóteles con la observación de la
naturaleza como única pauta, abriendo el campo de la visión científica para que
otro físico brillante como Einstein reconociera la materialidad de su idea
genial, descubriera el fotón y confirmara la teoría atómica dando inicio a la
mecánica cuántica, permitiendo un salto gigantesco en la evolución de la
humanidad.
Por lo
anterior, afirmamos que es momento de dejar la Segunda ley de la Termodinámica como
regla general de evolución del universo, integrándola solo como una tendencia
hacia la reversibilidad de aquellos fenómenos del mundo macroscópico que no
interaccionan con la energía, conducta límite que es opuesta a la de los procesos que ocurren en la materia real en
presencia de energía, en que la entropía determinará un umbral de eficiencia en
los procesos de auto organización, que junto con las tendencias negativas de la
entropía se generan sistemas cada vez más complejos y eficientes, definiendo una
conducta evolutiva del universo en
su conjunto. Desde este punto de vista, es evidente que la entropía no es el
marco general de comportamiento de un universo que se degrada, puesto que no
describe acertadamente el mundo en que vivimos, pues desde hace siglos es
científicamente imposible dudar que la naturaleza tiende a la evolución y que
no estamos en un universo que se simplifica y tiende a la muerte térmica,
tautología que contradice por si misma sus propias aseveraciones puesto que no
puede haber muerte térmica en un universo cerrado en que no existe perdida de
materia y energía, pues su producto permanece constante y la materia y la
energía se intercambian e interaccionan permanentemente de acuerdo al principio
de equivalencia de Einstein y lo que cambia es su complejidad y su sentido evolutivo, que es
opuesto al Thanatos determinado por la entropía como la entiende sir Arthur
Eddington.
Lo mismo
sucede con nuestro planeta; la tierra está sujeta a constantes procesos entrópicos que la degradan y erosionan
constantemente; no obstante, esta tendencia es contrarrestada por una serie de
procesos constructivos de gran dinamismo que la regeneran que con el empleo
creativo de la energía, han sido el soporte evolutivo de la corteza terrestre
como de nuestra atmosfera y de todos los seres vivos; la vida vegetal —transformando
la radiación solar en materia — ha formado prácticamente todo el oxígeno del
planeta, que tiene un 42% de la masa total de la tierra y muchos de los
compuestos que forman las rocas actuales han sido originados por la actividad biológica
marina desde hace 4. 500 millones de años y sus depósitos han acrecentado una
corteza que posee actualmente materiales que el planeta originario carecía, de
modo que la actividad de los seres vivos transformando la radiación solar en
materia — aunque con pérdida de energía pues la vida no viola los principios
fundamentales de la termodinámica como asevera Schrödinger — ha producido una serie de fenómenos de acreción, de modo
que la corteza actual es en gran medida el resultado de la acumulación de rocas
sedimentarias ya sea formadas directamente por actividad biológica marina o en forma indirecta en fenómenos
oxidativos pues los óxidos metálicos terrestres son resultado de la interacción
de los metales con el oxígeno biológico — así como los sulfatos y carbonatos son
el resultado de su interacción con la atmósfera primitiva — de modo que los
elementos originarios han reaccionado con los gases de la actividad biológica
reunidos en la atmósfera y han servido para reconocer las condiciones de la
evolución terrestre a partir de la atmósfera primitiva; así también, todos los
yacimientos de carbón del planeta y buena parte de los hidrocarburos son también
resultado de la acumulación generada por la vida vegetal y animal, por lo que
puede afirmarse que si no fuera por los importantes procesos creativos de la
naturaleza como la fotosíntesis, la tectónica de placas y la consolidación
electroquímica de gas carbónico que realizan los animales marinos para
precipitar carbonatos que constituyen los depósitos sedimentarios más
importantes del planeta, el mundo que conocemos no tendría oxígeno,
combustibles ni vegetales, el planeta contendría solo una fracción de la masa
actual y a las zonas emergidas de la tierra le habrían bastado 10 millones de
años para desaparecer en las aguas como sedimento de los procesos erosivos de
la entropía.
Por
estas razones debemos insistir en que los estados alejados del equilibrio
asociados a los procesos constructivos de la naturaleza, que junto a los
procesos entrópicos que — al exigir soluciones cada vez más asertivas en la
organización de la materia — son el
soporte evolutivo de las estructuras de la naturaleza en que se genera tanto
orden como desorden, siendo la bifurcación de los procesos físicos y la ruptura
de la simetría temporal que ella implica que jugando un rol constructivo,
introduce la historia en un universo en que el tiempo propio de cada proceso no
es desgaste ni disipación y aunque exista una tendencia entrópica, su resultado
neto no es de degradación sino de creación y evolución. En este contexto, la
entropía juega un rol determinante en el universo a nivel cosmológico, pues es
un parámetro que genera una presión de selección tanto en el mundo físico como
en los seres vivos, determinando procesos evolutivos que se oponen cada vez más
eficientemente a la entropía generando evolución, armonía y futuro; de este
modo, podemos entender la organización de los sistemas de la naturaleza como un
todo en el que sus partes se encuentran íntimamente relacionadas, en que la
presencia de dos tendencias opuestas: la entropía y la neguentropía — más que
un conflicto — son fuerzas que equilibran la materia y la impulsan a
evolucionar hacia un orden más complejo
y dinámico. “Por eso la dirección en que
podemos encontrar el origen del tiempo no es en la física clásica, sino
sosteniendo que el tiempo aparece en sistemas que incrementan su complejidad,
donde la información y la probabilidad juegan un papel clave en el medio, pues
representan la cantidad de organización interna que tiene el sistema y que a
través de ella se puede disminuir la cantidad de incertidumbre o entropía que
prevalece en una naturaleza que no alcanza nunca un estado de equilibrio,
espacio-tiempo virtual necesario para seguir evolucionando y avanzando hacia el
futuro”.
Como
señala Penrose, “a nivel microscópico los
flujos de correlaciones derivados de la agitación térmica entre partículas,
pueden determinar formas constructivas de organización que determinan una
flecha del tiempo a nivel de micro procesos”. En palabras de Prigogine “Si analizamos sistemas simples como un
péndulo ideal sin fricción, no tendremos
forma de distinguir entre pasado y futuro, si vemos una película que muestra el
movimiento de un péndulo no importa si hacemos funcionar el proyector hacia
adelante o hacia atrás, siempre veremos lo mismo: podemos decir que se trata de
una película reversible; lo mismo sucede si consideramos el movimiento de la Tierra alrededor del Sol:
no hay irreversibilidad aparente asociada a este proceso; el problema surge al
considerar los sistema simples como modelos estáticos del universo, eliminando
la fricción en el péndulo y la historia del sistema solar, imaginarlos eternos
y a partir de eso imaginar conclusiones
tratando de hacerlas válidas más allá de su contexto. De esta forma
simplificada y errónea, mintiéndose a sí misma en sus principios, la física
clásica concluye que la flecha del tiempo no existe y que la entropía es “la
ley del universo”, por eso que solo descubriremos la verdadera historia de la naturaleza del tiempo al estudiar los
sistemas complejos”, cuya dirección es opuesta a la entropía. Vista desde esta
perspectiva, la complejidad nos permite liberarnos de la racionalidad cerrada y
ficticia de la ciencia clásica, restando uno de los condicionamientos básicos
de las teorías científicas que es el cultural; esto permite abrir el dialogo
con la naturaleza hacia lo imprevisto y azaroso hasta ahora excluidos de los
fenómenos físicos de modo que la realidad no pueda ser determinada con una
mirada teórica y abstracta, sino explorada estadísticamente en el tiempo para
comprender el mundo abierto al cual pertenecemos y participar en su construcción
y evolución. Esto constituye una revalorización conceptual en una realidad que
integra probabilidad e improbabilidad, orden y desorden, reversibilidad e
irreversibilidad, linealidad y no linealidad, entropía y neguentropía,
restándoles su significación opositora y comprendiendo su tendencia dialéctica
que permite a la naturaleza evolucionar, generando un orden cada vez más
complejo en que junto a las leyes generales de la termodinámica y de la
entropía, hallaremos una tendencia a la auto organización de una materia que
presenta estructuras matemáticas con enormes posibilidades de información, con
las consecuencias epistemológicas que posibilita la ampliación de la
racionalidad científica hacia la gran riqueza conceptual y metodológica que
permiten los paradigmas de la complejidad, la que nos describe un escenario en
que el futuro debe ser contingente y no determinista, pues no está determinado
sino que será el fruto de la evolución,
la indeterminación y el azar, incluyendo
a la vida como parte de los procesos evolutivos de la naturaleza; en este
escenario, "la actividad humana creativa e innovadora no puede entenderse
como ajena a la naturaleza, debiéndose considerar como una ampliación e
intensificación de rasgos presentes en el mundo físico, que el descubrimiento
de los procesos alejados del equilibrio nos permite comprender". De
este modo, las situaciones dinámicas que rigen la evolución de los fenómenos
naturales son semejantes a las que rigen la evolución de los seres vivos, del hombre
y la sociedad”, trascendentes ideas que según la Academia Sueca de
Ciencias le dieron a Ilya Prigogine la oportunidad de recibir el Premio Nobel
de Química en 1977.
El
tiempo propio.
Generalizando
las ideas de Copérnico — el primer científico occidental en observar y comprender
objetivamente el cosmos — su principio cosmológico fundamental afirma que nuestro lugar en el universo no es en ningún
modo singular y tal como se ve desde nuestro pequeño planeta puede verse desde
cualquier punto que lo observemos, de modo que el universo es homogéneo e
isótropo. No obstante — si bien esta isotropía espacial es incuestionable a
gran escala — esta no puede aplicarse en forma literal en una escala menor,
pues en el universo la materia y la
energía no se distribuyen de modo uniforme como las moléculas de una gas, sino
que conforman una serie de estructuras discontinuas como galaxias, cúmulos
galácticos y redes unidas por la gravedad y separadas por grandes espacios
vacíos; nosotros habitamos en uno de los brazos de una galaxia — una
concentración de estrellas con una disposición espiral que a su vez forma parte
de una estructura mayor, el grupo local — pero
con la salvedad de las diferencias “locales”, la situación es muy
semejante en todos los confines del universo.
Esta
afirmación tampoco es válida en los extremos del
universo, pues por su alejamiento espacio-temporal, observamos los confines
cómo eran en su pasado lejano, mostrando las etapas iniciales de propagación y
formación de materia a partir de la radiación, lo que obliga a aceptar la idea
que la homogeneidad a gran escala del universo no es aplicable en el dominio
temporal, puesto que en el pasado el universo era muy distinto al actual,
encontrándose en un proceso expansivo que ha evolucionado temporal y
espacialmente a partir de un evento que toda la materia y energía se
concentraba en un punto inmaterial de energía unificada, escenario en que los
procesos de formación de materia descritos en el modelo estándar a partir del
proceso radiativo originario que aún podemos observar en los extremos del
universo, los entes de la naturaleza evolucionan en una secuencia de procesos
de materialización desde la radiación corpuscular — formada por núcleos de
Hidrogeno, Helio y en cantidad decreciente los de mayor peso molecular — que en
su agregación experimentan transformaciones irreversibles, formando estructuras
de creciente complejidad, momento angular y masa.
Estos
procesos evolutivos iniciales aún muy poco comprendidos — determinados por la
propagación de materia cuantizada en forma de campos de radiación corpuscular a
la velocidad de la luz — se contraponen
con las descripciones relativistas de una expansión material clásica y más aun
de una propagación material a velocidades superlumínicas expresadas por las
teorías de de Sitter y Alan Guth; no obstante, las estructuras de los confines
del universo —denominados cuásares — son enormes aglomeraciones de radiación
corpuscular formada casi íntegramente por plasma altamente ionizado aglutinado
por los campos magnéticos inducidos por el material nuclear que se propaga a la
velocidad de la luz, lo que está en franca contradicción con los paradigmas en
boga de una expansión de materia clásica a millones de grados.
Estos conceptos
–– determinantes tanto de la representación inicial
del universo englobados en modelos expansivos como en la formación de las
primeras estructuras cosmológicas y su evolución posterior –– no son nuevos en
la ciencia contemporánea y es claro que estos deben ser descritos por su tiempo
propio y sus leyes específicas de formación, pues la materialización de la
radiación no se produce bajo condiciones espontaneas y arbitrarias de energía,
sino por la interacción de sucesos determinados por las leyes de la mecánica
cuántica cuyos productos resultantes deben de estar de acuerdo a principios de
simetría inicialmente enunciados por Emile Noether y posteriormente
explicitados por Dirac, que cumplen
con la ecuación fundamental de Einstein E=Mc2, procesos en que la
emisión de radiación electromagnética es secundaria y se origina en la
aniquilación materia-antimateria a partir de la emisión de pares formados a
partir de la materialización de la radiación corpuscular originaria.
No
obstante, es paradojal que la incorporación a
las teorías cosmológicas de conceptos que
describen la expansión del universo con leyes físicas que han demostrado su
validez en la naturaleza no sean percibidos aun como una propiedad real de la
naturaleza, habiéndose recurrido a mecanismos hipotéticos de propagación
material súper–lumínicos que se estrellan contra leyes demostradas
experimentalmente — como la propagación ondulatoria e inmaterial de la
materia-energía y el límite de la velocidad de la luz en el vacío — revelando
sorprendentes carencias de un modelo cosmológico objetivo que explique con
leyes físicas demostradas experimentalmente la evolución de los procesos
transitivos enteramente cuánticos relacionados con los instantes iniciales del
universo, aspecto de gran consecuencia en la descripción tanto de la
propagación y formación de la materia barionica como su agrupación mediante los campos magnéticos
inducidos que se produce a partir de la radiación altamente ionizada en las
primeras estructuras cosmológicas y su posterior unificación mediante la
interacción gravitatoria y momento angular, aspectos que reflejan la carencia
de teorías que al no representar el origen nuclear de esta importante fuerza de
la naturaleza en cuyo estudio se han excluido sus fundamentos cuánticos por
casi un siglo, cediendo ese importante terreno a la Relatividad General,
que con su punto de vista determinista del universo no logra explicar el origen
de la fuerza gravitacional y menos aún determinar una teoría coherente de
propagación inicial del universo y la formación y evolución de las primeras
estructuras cosmológicas, conceptos que deben surgir necesariamente de una
teoría cinético-evolutiva eminentemente cuántica, puesto que dichos fenómenos
están íntimamente ligados a la propagación de materia-energía unificada en
forma de radiación, aspectos en que la Relatividad General
carece absolutamente de competencia.
La
primera expresión de la existencia de un tiempo propio en los eventos de la
naturaleza la encontramos en la relatividad de Galileo; posteriormente Lorenz
amplía el concepto a la velocidad de la luz y Einstein lo incorpora a la
relatividad. En Prigogine, el tiempo propio define los eventos
dinámico-evolutivos de la materia y la energía, íntimamente asociados al
concepto de irreversibilidad de los fenómenos de la naturaleza.
Prigogine,
el tiempo y la Filosofía.
Para
Prigogine, “toda definición del tiempo
debe ser una necesaria reconciliación entre el pensamiento científico y la
filosofía, pues desde Newton y Descartes los paradigmas del mecanicismo han
disociado el pensamiento en dos culturas divergentes y para comprender las
leyes y su papel en un universo en evolución, estos conceptos deben ser
abordados por la ciencia y la filosofía, unificándose para ser coherentes en
ambos mundos del saber”. Esta necesaria comunicación entre disciplinas
hasta ahora contrapuestas hacen resurgir antiguas interrogantes anteriores al
enclaustramiento disciplinario que generó el mecanicismo; “la fecundidad de la comunicación entre interrogaciones filosóficas y
científicas no puede ser truncada por rivalidades originadas en teorías y
dogmas deterministas sin contenido en la realidad, de modo que ningún límite
arbitrariamente fijado debe detener la convergencia entre las interrogaciones
de las ciencias y las filosóficas; no por ello podrán anularse sus diferencias
naturales; la interrogación científica está sometida permanentemente a la
experimentación, que limita la libertad del científico a su confrontación con
la naturaleza, que se encargará de desmentir las más seductoras hipótesis; para
la filosofía se trata también de una diligencia experimental no sobre la
naturaleza física sino sobre la naturaleza de los conceptos y la lógica y asertividad en el planteamiento
de los problemas y la coherencia de sus respuestas con el mayor rigor posible”.
De este
modo, para Prigogine el progreso de la ciencia depende en gran medida de una
estrecha cooperación entre las ciencias de la naturaleza y las ciencias del
hombre, intento que se opone a la fragmentación del conocimiento afirmando que
“las ciencias exactas y las humanas están
condenadas a progresar juntas o a perecer juntas”. Para Prigogine, la
ruptura entre ambas disciplinas obedece en gran medida a que las ciencias
humanas relatan acontecimientos y las exactas buscan leyes permanentes, pero la
irreversibilidad de los procesos físicos hace desaparecer esta oposición,
porque los fenómenos físicos tienen también historia pues evolucionan y no
obedecen a leyes inmutables y podríamos agregar: la oposición también se diluye
cuando advertimos que la vida y también el fenómeno humano se puede analizar
desde el punto de vista de los sistemas alejados del equilibrio, de modo que
estos se extienden también a las ciencias del hombre.
Los
fenómenos complejos.
La Física
de los sistemas dinámicos ha demostrado la existencia de fenómenos complejos no
descritos por la ciencia clásica, en que el todo no es la suma de sus partes
como el conocimiento convencional he descrito hasta ahora la realidad. Visto en
retrospectiva, esto no debería causar extrañeza ya que hasta hoy hemos
representado al mundo mediante teorías matemáticas que ponen énfasis en su
aspecto lineal, ignorando la totalidad en gran medida debido a lo complejo que
resulta su descripción, ”lo que obliga
al uso de métodos aproximados”, por
lo que debemos preguntarnos sobre la validez de teorías y modelos
utilizados hasta ahora para describir la realidad, ¿es el lenguaje adecuado para describir la complejidad del
mundo real?;¿Se han considerado todas las variables necesarias para describir
el comportamiento complejo del mundo físico dentro de los formalismos
matemáticos convencionales? La respuesta inevitable es no; la existencia de
fenómenos emergentes que surgen cuando hay materia interactuando con la energía
presentando características complejas como auto organización, formación de
estructuras disipativas, resonancias, estados reversibles de alta energía e
incluso los denominados estados caóticos — que son conductas coherentes de la
materia que obedecen a leyes estadísticas de elevada complejidad — muestran que
los fenómenos complejos no pueden ser explicados mediante su reducción a un
lenguaje determinista, que tiene la intención de hacernos pensar en una realidad
simplificada: la química no puede ser explicada como física aplicada, la
biología como química orgánica, la vida reducida a genes y la conciencia y la
inteligencia a una interacción entre neuronas; así también el Universo no puede
ser reducido a una teoría de conjunto de cuerpos en degradación pues tal
lenguaje es ineficaz para describir a un sistema complejo, indeterminado y evolutivo.
Estos
conceptos dinámicos abren nuevos caminos hacia el análisis y comprensión de las
complejas estructuras cosmológicas que hasta ahora no han contado con una
explicación genética y una teoría que las haga inteligibles, en que
su evolución está determinada por los procesos constructivos de la materia y la
energía, determinando la dirección de la flecha del tiempo a nivel cosmológico.
La
evolución del tiempo y de las leyes de
la naturaleza.
A
diferencia de toda la ciencia contemporánea, en Prigogine encontramos una
visión del tiempo como un parámetro dinámico ligado íntimamente a la evolución
los procesos irreversibles de la naturaleza, determinando una flecha del tiempo
que se opone a la entropía y sus
procesos reversibles. Para Prigogine
— a diferencia del tiempo determinista — cada evento debe adjudicársele su
tiempo propio que se inicia con cada proceso irreversible de la naturaleza.
Esta dimensión temporal múltiple, creadora y dinámica que expresa una visión
probabilística, azarosa y hasta accidental en la evolución del universo, posee
un nivel de incertidumbre o indeterminación que va mucho más allá del azar; es
una necesidad de los principios de la materia que se opone decididamente a la
visión determinista de Einstein en el nulo papel que atribuyó a la conducta
estadística de una materia, que posee un nivel intrínseco de incertidumbre
observable tanto a escala cuántica como macroscópica, por lo que para Prigogine
Dios no solo juega a los dados sino que como todos los mortales también pierde,
pues en un universo azaroso intrínsecamente indeterminado, toda predicción no
probabilística está condenada al fracaso porque la naturaleza posee una
complejidad y una conducta estadística cada vez más compleja que la hace
impredecible y solo puede ser descrita y explorada con métodos
estadísticos.
Estas
afirmaciones tienen necesarias implicancias en las leyes de la naturaleza, pues
del mismo modo como en la evolución de los seres vivos, a nivel de la materia deben
existir principios que evolucionan en el tiempo junto con ella, pues al no
estar la diversidad y complejidad de los fenómenos del universo pre-establecidos,
han debido crearse estructuras y compuestos progresivamente más complejos, por
lo que sus principios de organización deben evolucionar con ellos, lo que la
teoría debe modelizar para describir el conjunto de procesos transitivos que su
futuro no está entera y eternamente determinado como opina el determinismo,
sino que serán fruto de la evolución, de la indeterminación y del azar de la
naturaleza, lo que obliga a aceptar también la idea de la evolución en el
tiempo de las leyes naturales pues estas no han podido contener desde su inicio
comportamientos inmanentes para operar hacia improbables condiciones futuras
que al depender de procesos complejos e impredecibles a
partir de reglas locales de elevado nivel de incertidumbre, que solo son posibles
de representar a través de operaciones exponenciales de grandes números; esta
revolucionaria afirmación reafirma el concepto evolutivo en la definición de
los eventos de la naturaleza en que no pueden preexistir leyes que los
gobiernen por no preexistir los fenómenos físicos con la complejidad para
determinarlos, manifestando el carácter constructivo y la riqueza de
información de los sistemas complejos en que surgen nuevos ordenes que nos
enfrentan como en la evolución de los seres vivos, a fenómenos inéditos de cooperatividad y estructuración de un
creciente nivel de complejidad tanto desde el punto de vista molecular como de
información en todo el universo, procesos que desde esta óptica pueden ser
motivo de importantes avances en nuestros actuales conocimientos de la realidad
física en una serie de campos. “sabemos
que la evolución termodinámica genera tanto orden como desorden, que se observan
tanto en situaciones simples como complejas. En todos los niveles de la
naturaleza, desde la biología hasta la cosmología, la irreversibilidad produce
tanto orden como desorden; la vida solo es posible destruyendo moléculas
constantemente, disipando energía y generando desorden, pero son esos procesos
lo que permiten crear la inestabilidad necesaria para que se formen nuevas y
complejas organizaciones de la materia que satisfagan cada vez de mejor modo
las exigencias de un medio en permanente evolución; esto no se contrapone con
la existencia de leyes generales que engloben el comportamiento de la materia y
la energía sino todo lo contrario; reafirman el hecho que dichas leyes
generales necesitan de un concepto estadístico subyacente que junto al
determinismo incluyan la incertidumbre, la probabilidad y el azar”.
Al igual
que las especies, las estructuras de la naturaleza no evolucionan independiente
y aleatoriamente sino que es el sistema en su conjunto que se desarrolla
integralmente estableciendo un creciente umbral de eficiencia, determinando un nivel de evolución compartida o co-evolución cuya característica fundamental es
una progresiva complejidad y economía en el empleo de los limitados recursos
que dispone; la determinante en este proceso lo constituyen las relaciones
recíprocas entre las estructuras existentes en el medio y la energía
disponible, de modo que es el medio en su conjunto el que evoluciona de una
forma cada vez más eficiente de utilización de los recursos, en que las presiones entrópicas
determinan la desaparición o subsistencia de las nuevas estructuras que se
formen.
La
paradoja de la irreversibilidad.
Hasta
hoy el concepto de tiempo en la ciencia ha estado supeditado a una visión
reversible sustentada en el Segundo principio de la Termodinámica y la visión relativista de Einstein, para muchos
el mejor defensor del determinismo de Newton en la física contemporánea. Siguiendo
a Einstein, Bertrand Russell — el gran matemático y filósofo británico — afirma
que el orden temporal de los acontecimientos depende solo del observador en que
el concepto de presente sólo tiene significado en el marco de referencia que
este se encuentra, por lo que dividir el
tiempo en pasado, presente y futuro no es más que una construcción mental sin
un significado para las ciencias naturales, de modo que para el matemático
Herman Weyl como para Russell y Einstein el tiempo no transcurre y simplemente
existe como dimensión relacional y pese
el carácter ilusorio del tiempo a que este refiere sintetizando su visión
subjetiva en las ciencias, no podemos seguir ignorando que los observables
contradicen las aseveraciones de la entropía pues son los procesos de la
naturaleza y no una teoría que nos indican que el universo es irreversible y
tiene una historia con pasado, presente y futuro, en que el incremento de la
complejidad determina la direccionalidad del tiempo penetrando toda las dimensiones
de la naturaleza, estableciendo los principios básicos de la evolución del
mundo físico y de la vida.
Prigogine
ha llegado a la conclusión de que la reversibilidad de los fenómenos de la
física solo se manifiesta de una manera excepcional en la realidad y no es más
que un ideal. "La naturaleza presenta a la vez procesos irreversibles y
reversibles, pero los primeros son una regla y los segundos una excepción”.
La
unidad de los fenómenos de la naturaleza.
A
diferencia de nuestras teorías, la naturaleza no presenta distintos niveles de
organización en el funcionamiento del mundo físico pues su comportamiento es
unitario, indisoluble y coherente y hasta donde hemos podido llegado a
comprender, presenta profundos comportamientos geométrico-matemáticos que han
inducido desde el inicio de nuestra cultura en un afán primero utilitario y
luego en un intento de conocer nuestro universo, avanzar en la búsqueda de
analogías en el conocimiento y la comprensión de algunos principios generales
que reflejen el comportamiento de la naturaleza, lo que hemos denominado
ciencia.
De este
modo, debemos admitir que la naturaleza no presenta las paradojas que muestra
nuestras principales teorías en que hemos fragmentado la realidad en nuestro
intento por comprenderla, debiendo asumir que la materia no debe tener
exigencias para adoptar determinados comportamientos físicos en diversas
escalas sino que es coherente consigo misma y con el universo como totalidad y
de existir algún suceso causal que delimite su conducta serían los
condicionantes del mundo microscópico el soporte material que determine las
conductas estadísticas y la evolución de los procesos que observamos en los
diversos niveles de energía en que se encuentra la materia, que no se desacopla
en escalas sino que actúa en forma unitaria en una dimensión temporal
determinada por los eventos irreversibles de la naturaleza. Esto no afirma que
haya solo una dimensión temporal en el universo, sino que la reacción de la
naturaleza ante la materia — en que no podemos hablar de materia aislada porque
esto es una reducción determinista pues se encuentra siempre en movimiento
relativo interactuando con la energía — muestra
un comportamiento unitario y coherente y puede asegurarse — si hablamos de
tiempo propio el expresado por cada evento del universo como reconocemos en la
ciencia desde Einstein — este espacio-tiempo tetra-dimensional debería
constituir el universo de sucesos en todas las dimensiones que interacciona la
materia con la energía.
No
obstante la comprensión de la dualidad de los procesos macroscópicos de la
naturaleza, que junto a la reversibilidad habitual del comportamiento de la
materia, la energía del medio y su propio comportamiento estadístico forma
bucles de irreversibilidad que determinan procesos globales de evolución, nos
permiten comprender que la indeterminación o incertidumbre observada en el
mundo cuántico no puede comprenderse al margen de los procesos del mundo macroscópico,
puesto que estos conforman el fundamento material sobre el que se estructura el
mundo macroscópico, en que la entropía debe determinar ya a nivel de micro
procesos un umbral de eficiencia en el
utilización de la energía y las propiedades de la materia en las nuevas
estructuras que se forman, comprendiendo que los desequilibrios de la materia
que se presentan en interacción con la energía se expresen en estructuras
auto-organizadas que serán la mejor respuesta a las condiciones del medio y a
la energía disponibles, determinando un creciente nivel de eficiencia al
reciclar aquellas estructuras que no sobrepasen cierto umbral de eficiencia
explicitado por la complejidad del medio que obliga el segundo principio de la
termodinámica; esto nos permite afirmar que también la entropía,- considerada
no como un entidad omnipresente sino como una propiedad inherente de la materia
que opera unitariamente constituye un umbral que evoluciona también con la
complejidad del medio, representando el quantum de organización interna que
debe obtener cada sistema como conjunto,
en un medio que compite por recursos limitados a través de exigir
soluciones cada vez más asertivas en la organización de la materia y en el
empleo de la energía, se puede disminuir la cantidad de incertidumbre o
entropía que prevalece en el sistema.
Este
modo unitario de comprender el universo en sus diversas escalas nos permite
reexaminar el comportamiento de la materia macroscópica que — visto desde un
prisma evolutivo — no puede estar en contradicción con el comportamiento
estadístico del mundo microscópico, puesto que la naturaleza como lo muestra el
mundo cuántico necesita explorar todos los caminos posibles para encontrar
estadísticamente las configuraciones adecuadas tanto a sus principios como al
medio y a sus procesos evolutivos. Esto no afirma que los estados reversibles
no existan sino todo lo contrario, afirma que la reversibilidad del mundo físico se reproduce
en las diferentes escalas en que podemos dividir la realidad, presentando bucles
de irreversibilidad sustentados en los comportamientos estadísticos, azarosos y
hasta accidentales de la materia en sus diversas escalas de modo que — como las
interferencias constructivas y destructivas en teoría ondulatoria — el universo
evoluciona en su conjunto en forma estadística hacia la irreversibilidad
expresada por procesos constructivos y no hacia una tendencia a la
degradación señalada por la entropía.
Esta
representación de los estados reversibles como necesarios y no contrapuestos en
las diferentes escalas en que arbitrariamente dividimos la realidad para
comprender su evolución, nos permite aproximarnos a la comprensión de que la
importancia de la entropía en el comportamiento del mundo macroscópico debe
extenderse también en la escala del mundo cuántico, en que no todas las
estructuras que se formen tendrán permanencia en el tiempo puesto que la
presión del medio es la que deberá descubrir y seleccionar aquellas respuestas
que mejor se adapten a las condiciones locales específicas de un medio en
permanente cambio, logrando que en su conjunto evolucionen hacia estados
dinámicos de progresiva complejidad.
El
tiempo reversible e irreversible
La trascendencia
de un tiempo reversible en Mecánica Cuántica e irreversible en la nueva Cosmología
que deberá surgir de la aceptación de las nuevas leyes de la naturaleza que
emergen del paradigma de la complejidad, deberá conducirnos a importantes
modificaciones en sus estructuras conceptuales; no se trata de confrontar dos
ciencias cuya fecundidad ha transformado la imagen de la física contemporánea
sino comprender sus diferencias, que deben ser complementarias en las distintas
escalas en que describimos una realidad que no se fragmenta en escalas sino que
es unitaria y coherente; cualesquiera sean esos desarrollos está excluida una
vuelta hacia atrás pues el carácter ilegítimo del ideal de inteligibilidad que
había guiado hasta aquí a la física clásica al describir un tiempo reversible a
nivel macroscópico ha concluido, cerrando una importante página de la historia
de la física. En dinámica clásica, devenir y eternidad parecían identificarse y
al igual que el péndulo imaginario oscila eternamente en torno a su posición de
equilibrio, el mundo regido por las leyes de la dinámica mecanicista se reducía
a una inmutable identidad; ese escenario inexistente describe un universo en
degradación e involución hacia un estado de equilibrio termodinámico definido
por la uniformidad y el nivelamiento de las diferencias, universo utópico que
no representa el mundo real. ”En este
sentido, es necesario plantearse tres aspectos desestimados por la dinámica
clásica que caracterizan la evolución creadora del universo: la
irreversibilidad de los fenómenos reales de la naturaleza, la existencia de
acontecimientos contingentes no deducibles por leyes deterministas y el
potencial de desarrollo de dichos acontecimientos hasta influir en la
configuración del proceso entero; la evolución darwiniana es una muestra de la
influencia de los tres aspectos señalados y de qué modo operan ellos en los
procesos alejados del equilibrio, que hacen posible adoptar un comportamiento
coherente a una multitud catica de moléculas comunicadas entre sí a distancias
macroscópicas, generando auto organización, noción que se encuentra asociada a
la de inestabilidad y sensibilidad de un
sistema a fluctuaciones espontaneas de la materia, capaces de generar profundos cambios en la
naturaleza. "
Las
ideas de Prigogine que las probabilidades en los sistemas lejos del equilibrio
deben ser concebidas como potencialidades objetivas y que el flujo de correlaciones imprime un
carácter irreversible a los procesos microscópicos, permite plantear una nueva
interpretación de la
Mecánica Cuántica al considerarla como expresión de un
indeterminismo intrínseco de las fluctuaciones cuánticas definido por el carácter probabilístico de la ecuación de
onda de Schrödinger; este concepto,
que posee un potencial hasta ahora no estudiado, hace imperioso interpretar la
irreversibilidad de las fluctuaciones cuánticas como una propiedad intrínseca
de la materia, aspecto que deja sin base las interpretaciones subjetivistas de la Mecánica Cuántica.
Estudiando
la dinámica de correlaciones, Prigogine constata "una diferencia fundamental en la materia microscópica entre
la descripción en términos de trayectorias y la descripción estadística",
en que surgen nuevas propiedades inherentes a conjuntos inestables y
probabilísticos y no a trayectorias
individuales. "rompiéndose la
equivalencia entre el punto de vista de partículas individuales y el
estadístico". Este hecho notable “abre
un nuevo capítulo entre las matemáticas y la física, al atribuir un sentido
coherente a lo que podemos llamar “las leyes de lo complejo “ a nivel
estadístico; cualquiera sea la situación, coexisten una descripción individual
en términos de trayectorias, funciones de ondas o campos y una descripción
estadística y en todos los niveles, la inestabilidad y no integralidad rompen
la equivalencia entre las dos descripciones" y concluye: "La formulación de las leyes físicas debe ser
modificada en todos los niveles, con el fin de estar de acuerdo con el universo
abierto y evolutivo en que vivimos".
Las
resonancias
En
concordancia con su idea de inestabilidad de los sistemas a nivel microscópico, Prigogine redescubre
un concepto formulado por Poincaré en relación con las trayectorias,
explicitado también por Penrose: la
noción de resonancia — fenómeno que se produce cuando un sistema capaz de
oscilar en torno de una posición de equilibrio es sometido a una excitación
periódica cuya frecuencia se acopla a la oscilación del sistema, amplificando
sus oscilaciones —. Poincaré demostró que las trayectorias de la dinámica
clásica son reversibles solo cuando no son afectadas por resonancias y que ello
es la excepción y no la regla. Siguiendo
a Poincaré, Prigogine señala:
"A nivel estadístico, las
resonancias ocasionan la ruptura del determinismo introduciendo la incertidumbre
en la Mecánica
Clásica, rompiendo la simetría del tiempo; no hay indeterminación cuando tratamos con un sistema
integrable de partículas ideales sin interacciones mutuas, en que es posible
una descripción en términos de trayectorias, pero esa descripción corresponde a
casos limites e hipotéticos que no existen en el
mundo real, por lo que las verdaderas leyes de la dinámica deben formularse en
términos de probabilidades", y concluye: "Durante siglos las trayectorias fueron consideradas
los objetos fundamentales de la física; ahora detentan una validez limitada y
deben ser remplazadas por probabilidades”.
Estos
conceptos de Prigogine reafirman las ideas que lo han conducido a exigir
transformaciones transversales tanto en dinámica relativista como en Mecánica
Cuántica: “los objetos fundamentales de
la física no son trayectorias o funciones de onda sino probabilidades. Por largo tiempo vacilé ante esta conclusión
radical; la cuestión era saber si se debían abandonar las descripciones de
trayectorias o si los sistemas inestables exigían una descripción equivalente a
la clásica que conservara su validez". De este modo Prigogine extiende
a toda la física la concepción probabilística. ¿A qué se aplica esta idea de
probabilidad? Las estadísticas expresan el modo en que actúan los flujos
irreversibles de correlaciones determinados por las colisiones de partículas,
influidas externamente por agitación térmica e internamente por resonancia.
"A nivel estadístico, podemos poner
de manifiesto el orden temporal de la naturaleza estudiando la evolución de la
distribución de probabilidad por efecto de las colisiones; la noción central es
la correlación. En el curso del tiempo nacen y se propagan correlaciones, que
es el modo como la irreversibilidad emerge a nivel estadístico; se trata de
construir una dinámica de correlaciones estadísticas y no una dinámica de
trayectorias". Dicha corriente de correlaciones estadísticas de los
sistemas irreversibles orientados
en el tiempo han sido verificadas en simulaciones digitalizadas. Las relaciones
de indeterminación de Heisenberg establecen que la onda-partícula en movimiento
no tiene asociada una trayectoria definida como en la física newtoniana, de
modo que las variables dinámicas como posición, momento angular, velocidad,
momento lineal, etc., deben ser definidas solo de modo operacional y
estadístico; es decir, en términos relativos al procedimiento experimental por
medio del cual son medidas — incluyendo su nivel de error — de modo que el
principio de incertidumbre comporta un desvío completo de las concepciones
clásicas, haciendo que la noción de trayectoria al igual que de partícula clásica deban ser desechadas”.
Cette vision créative, plein d´un future qui
assigna un neuf et évolutive papier à l’entropie
sur la nature contribuée à déterminer une ombrage de crèchent complexité qui
admit inclure a la vie, al homme et la société sur les principes d’el univers, c’est l´héritage de le grand Maestro Dr.
Prigogine à ses disciples et contradicteurs, que ce soit espérons préserver et acrescenter.
Héctor
Becker G.
Guatemala,
25 de Marzo de 2011
.