sábado, 8 de marzo de 2014



Escritos: 
Héctor Becker G.


                  El tiempo en la civilización occidental hasta Prigogine.


Como todo el conocimiento humano a lo largo de su historia, el tiempo ha sido   comprendido de muy diversas formas, constituyendo el problema por excelencia de todo filósofo y científico; sus interrogantes se enlazan profundamente con nuestro lugar en el Universo y con aspectos fundamentales de ese tiempo propio que constituye nuestra existencia — esa percepción de continuidad que formamos en nuestra mente a partir de los sentidos — creando la intuición de que el tiempo transcurre desde el pasado hacia el futuro a través del presente.
Eso es lo que sentimos y pensamos, pero ¿qué es realmente el tiempo? para nuestro entendimiento es un concepto tan intuitivo que nuestro lenguaje no tiene palabras apropiadas para describirlo; para la ciencia y la filosofía ha sido  también una definición compleja y abstracta; los matemáticos lo asumen como aquello que puede ser medido por los relojes; para Einstein es una dimensión del universo integrada al espacio,  conformando un espacio-tiempo tetra dimensional que posee importantes propiedades topológicas y a escala cuántica es descrito por elementos discontinuos o cronogramas de 10 -43 seg  — el tiempo de Planck —, escala que en su inicio el espacio-tiempo se unifica con la materia-  energía, pues sabemos que en los primeros instantes del universo todos sus parámetros se encuentran unificados en un punto inmaterial de energía cuantizada.
En las primeras culturas humanas — íntimamente dependientes del medio natural — existió una percepción intuitiva del tiempo asociada a ritmos periódicos de la naturaleza como los ciclos del sol, la migración de animales, las fiestas que celebraban el origen de su cultura, etc.; el tiempo aunque cíclico, como medida no tenía valor pues en sus inicios nuestra especie vivió por milenios en un eterno presente, con cambios lentos y poco apreciables en su cultura, su medio material y su economía. Para encontrar un concepto más objetivo del tiempo debieron transcurrir miles de años en que inicialmente la caza y posteriormente la pesca, la domesticación animal y la agricultura transformaran la precaria economía de subsistencia primitiva iniciándose la división entre el trabajo productivo y el intelectual, emergiendo en las primeras culturas urbanas — sumerias, fenicias, egeas y especialmente en las polis griegas — el oficio de pensar y con él, el desarrollo de la ciencia y la filosofía.
De este modo, el saber formal del mundo occidental tiene su inicio en la cultura griega hace dos mil quinientos años; antes de eso, la representación que el hombre hizo de su medio natural, del tiempo y de su propia existencia fueron mitos que personificaban fenómenos naturales como el rayo, las tormentas, las erupciones volcánicas, el movimiento de los astros, el nacimiento de animales y plantas, la sequía, la enfermedad y muerte de miembros de su clan debidas a la acción de entes sobrenaturales que simbolizan las fuerzas del medio pues — al carecer de explicaciones racionales a los fenómenos naturales — el hombre primitivo se refugió en mitologías que simbolizan la dinámica de la naturaleza como la manifestación de seres poderosos que lanzan  calamidades y muertes contra quienes les ofenden, pudiendo ser también dioses benefactores que dan la vida, mueven el firmamento y producen las lluvias y cosechas. Desde estas primeras representaciones míticas naturalistas, la evolución de la economía primitiva hace surgir una serie de creencias cada vez más elaboradas y coercitivas que norman la conducta y regulan los excedentes del trabajo de la sociedad, constituyendo castas parasitarias con férreas estructuras de poder que llegan hasta nuestros días con las mismas mitologías de la edad de piedra, conservando una representación del mundo basada en creencias mágicas contrapuestas a la naturaleza y a la ciencia. En ese contexto, el mundo primitivo fue el espacio-tiempo asignado por los dioses y para muchos que aún viven en esa mítica prehistoria de la cultura humana con creencias en seres feudales que administran la vida, la muerte, el mundo y el inframundo de los seres humanos, seguirá siéndolo hasta el fin de sus días.
Aunque el paso de la tradición oral a la escritura es un precedente necesario para el surgimiento  de la filosofía, las matemáticas y la ciencia, en las primeras culturas urbanas como Minos, Sumer, Babilonia y Egipto apoyados por una naciente escritura y el desarrollo de los primeros sistemas numéricos se lograron algunos conocimientos estructurados de botánica, zoología, astronomía y matemáticas, estos se limitaron a una recopilación sistemática de la tradición oral acumulada por milenios, sin transformarla en teorías que la explicasen. Quienes sí lo hicieron fueron los Griegos, que como comerciantes y marinos navegaron todo el mundo conocido reuniendo e interpretando la cultura acumulada en las primeras capitales del mundo, por lo que además de ser los primeros filósofos, fueron también los primeros científicos y bibliotecarios de nuestra civilización y aunque no podemos hablar de una visión única del tiempo en su cultura pues en su extensa historia sus filósofos enunciaron una serie de teorías al respecto, debemos a ese pueblo las primeras reflexiones en torno a su naturaleza y si hubiera que destacar un concepto transversal distintivo de la ciencia y la filosofía griega respecto al tiempo deberíamos señalar que junto con asumir el concepto primitivo del ciclo del eterno retorno asociado a las divinidades, su reflexión se centra en la existencia de una realidad objetiva que determina todo conocimiento; dicha realidad puede consistir en un elemento material como en la Escuela de Mileto o en los Pitagóricos — que consideraban el número una entidad de existencia real en la naturaleza — o puede ser un elemento inmaterial como las ideas preexistentes propuestas por Sócrates o el mundo ideal separado de la realidad propuesto por Platón, pero la búsqueda de la causa primera determinará toda interpretación de la realidad, subordinando cualquier proposición filosófica a ese concepto. Los cambios que impondrán posteriormente los sofistas con acento en el lenguaje, el ser humano o la sociedad no alterarán la disposición a aceptar la existencia de una realidad objetiva independiente del ser humano a la que ha de ceñirse todo el conocimiento, incluso el pensamiento mismo y el tiempo.
 De este modo, la preocupación central del mundo griego hasta Aristóteles no fue una descripción de los fenómenos de la naturaleza ni su verificación experimental, sino la determinación de los principios generales de un conocimiento subyacente en la materia — Ousía   una realidad virtual opuesta al conocimiento científico, una esencia arcana preexistente en la materia que al aplicar sus principios, determinaba el buen pensar con un predominio del intelecto sobre la experiencia sensible y la observación de la naturaleza, creencias que al oponerse a la experimentación, constituyen tautologías indemostrables que más que explicar la realidad, la disocian del mundo físico puesto que existe un mundo virtual de las ideas separado de la realidad material de la naturaleza. Así, el tiempo en  la cultura griega anterior a Aristóteles es un concepto ideal que conforma una realidad virtual eterna separada del hombre, un fundamento potencial que rige el acontecer de la naturaleza que implica tránsito y desgaste; una dimensión negativa en que el presente es parte ilusoria del eterno camino señalado por los dioses.
La filosofía natural de Aristóteles establece una nueva concepción del tiempo asociada al espacio, pasando de ser solo un efecto de los acontecimientos materiales a un marco de referencia que los contiene, formando parte integral de la explicación de la physis o movimiento infinito de la naturaleza. Esta revolucionaria definición dinámica del tiempo — de gran trascendencia para el futuro de la ciencia — es heredada por la cultura árabe desde la conquista de Alejandro Magno y tendrá una importancia fundamental es su desarrollo científico y económico posterior; sin embargo, no tendrá cabida en la ciencia occidental hasta la relatividad de Albert Einstein, la mecánica cuántica de Bohr y Schrödinger y la física de los sistemas complejos de Prigogine, íntimamente asociados al concepto de irreversibilidad.
Discípulo de Platón, Aristóteles se distanció de las representaciones idealistas de su maestro, rechazando la teoría de las ideas separadas de los entes del mundo elaborando un pensamiento de carácter realista y naturalista; frente a la separación radical entre mundo sensible e inteligible planteada por las doctrinas platónicas, defendió la idea de aprehender la realidad a partir de la experiencia y en contra de las tesis de su maestro consideró que los conocimientos universales no pueden separarse de los objetos, sino estar inmersos en la materia como entes reales que pueden ser captados por los sentidos y estudiados por la inteligencia y la lógica, con lo que se elevan objetivamente por sobre lo sensible y contingente — en lo que reside su aspecto universal — confiriendo gran importancia a la observación, al estudio científico, a la experimentación y a la verificación del comportamiento de la naturaleza, el ser humano y la sociedad. De este modo, Aristóteles devuelve la materialidad al mundo físico — lo que realmente son las cosas entendidas como substancia o características del objeto — no como las ideas separadas del mundo descritas por Platón.   
Aristóteles tampoco admite la idea del saber innato propuesto por Sócrates pues la mente al nacer es "tabula rasa" en que nada hay escrito, de modo que el conocimiento comienza en los sentidos y en la experiencia, en que las percepciones son aprehendidas por el intelecto que — mediante la inteligencia y la lógica — transformará las impresiones de los sentidos en conocimiento suprasensible. Sus trabajos no se dirigieron únicamente al estudio del mundo físico y a sus causas, orientándose también a los fundamentos de la lógica formal, la moral, la política, la estética e incluso a la medicina, abarcando todo el conocimiento de su tiempo haciendo invaluables aportes al nacimiento y desarrollo de la ciencia occidental. No podemos dejar de lado el hecho que fue maestro y consejero de Alejandro Magno — considerado el conquistador, estratega y político más importante de la historia — que a los 20 años de edad había conquistado todo el mundo conocido de su tiempo, difundiendo en él la cultura y filosofía griega como impulso fundamental de su revolucionario proyecto civilizador, que solo tendrá parangón en los ideales de Napoleón veinte siglos después.
Por su cuantioso y original trabajo filosófico y científico, Aristóteles es considerado uno de los pensadores y filósofos más importantes de todos los tiempos, constituyendo un pilar fundamental del pensamiento occidental; su obra escrita hace dos mil trescientos años ejerce aún una notable influencia sobre el mundo científico contemporáneo y continúa siendo objeto de estudio por parte de múltiples especialistas, constituyendo el legado más importante del pensamiento de la Grecia antigua a la civilización occidental.
De acuerdo con fuentes antiguas, el estagirita escribió alrededor de 170 obras aunque solo 30 se han conservado, por lo que muchas de sus ideas nos han llegado a través de interpretaciones y escritos de sus discípulos o en recopilaciones y traducciones árabes, aunque muy influenciadas por el platonismo.
En el mundo occidental — a diferencia de la floreciente cultura y economía Árabe — durante siglos el pensamiento aristotélico fue eclipsado por las doctrinas platónicas pues el naturalismo y la objetividad de los desarrollos científicos y filosóficos de Aristóteles eran acusados de materialismo, obstaculizándose la investigación científica y privilegiando la visión idealista y neoplatónica de Plotino y Beocio. El espiritualismo obtuso, el desprecio y la persecución de las ideas científicas y la experimentación que por 15 siglos caracterizaron al pensamiento medioeval debido a la preeminencia de los dogmas de la iglesia católica en la ciencia y la cultura, hicieron que las doctrinas idealistas predominaran durante toda la Edad Media, recelándose de la visión materialista aristotélica. El filósofo Avicena (n.980) socavaría los pilares de las creencias religiosas con sus Tesis sobre la eternidad y Averroes (n.1126) con la traducción directa del griego de la obra del filósofo recupera el pensamiento de Aristóteles, liberándolo de las adherencias neoplatónicas y teológicas medievales. Ambos filósofos — de gran importancia en el desarrollo de las ciencias árabes — contribuyeron con su obra a que el pensamiento aristotélico — que permaneció oculto y hasta destruido en las bibliotecas de los monasterios —  fuese progresivamente conocido en Occidente y las fuertes presiones por abandonar el obscurantismo y la persecución de las ideas decretadas por Roma desde inicio de la Edad Media — que constituye el  trasfondo político de los sucesivos cismas Anglicano, Calvinista y Luterano así como de 400 años de Inquisición —  permitieron que la obra de Aristóteles fuese estudiada en la nacientes universidades europeas a partir del siglo XIV y finalmente las obras de sir Roger Bacon y  Alberto Magno reivindican las teorías aristotélicas y junto a la obra de divulgación de Santo Tomás — aunque tremendamente desnaturalizada por la Escolástica Vaticana — la transformarán en la base oficial de una nueva teología cristiana.  
Aristóteles fue el primer filosofo en desarrollar un análisis objetivo del tiempo, caracterizándolo como una relación asociada al espacio y al movimiento e independiente de ellos, sin definirlo enteramente como subjetivo y aunque explicita su dimensión infinita, deja sin responder una pregunta fundamental; en su Physis (naturaleza) — término que simboliza un principio inmanente de operatividad y desarrollo potencial del mundo — establece que el tiempo “es el número o medida del movimiento desde una perspectiva de un antes a un después”; pero como advierte Prigogine, ¿cuál es esa perspectiva: la del alma humana o de la naturaleza?; no contamos con la respuesta de Aristóteles en las obras que se disponen, aunque la que le atribuyen sus discípulos es que “el tiempo es un absoluto de la naturaleza exterior al hombre; es decir, es una dimensión  semejante al espacio e íntimamente relacionada con él: “La naturaleza es en todas las cosas que poseen un principio de movimiento, (como el tiempo) la forma y la esencia que no son separables por el pensamiento; en cuanto al compuesto de materia y forma (como la vida) hay que decir que no es una naturaleza sino un ser natural o por naturaleza.”
En definitiva, Aristóteles concibe por primera vez la idea del espacio-tiempo, caracterizándolo como el movimiento infinito y eterno de la naturaleza: un marco de referencia espacio-temporal en el que los acontecimientos finitos son concebidos como partes añadidas a un espacio-tiempo infinito — una realidad exterior a la naturaleza y al hombre — que solo puede ser percibida como representación subjetiva de una realidad eterna preexistente.
Las relaciones entre espacio, tiempo, movimiento y experiencia sensible señaladas por Aristóteles, pese a su tremenda capacidad descriptiva que se anticipa en 24 siglos a la visión de la ciencia contemporánea, no tuvo como resultante una cosmovisión que impulsara a la sociedad hacia el desarrollo de la ciencia, la economía y trascendiera  al mundo antiguo con la excepción de la cultura Árabe que — heredando la visión de la ciencia aristotélica desde la conquista de Alejandro Magno — alcanzó una clara hegemonía económica, social, cultural y científica en el mundo antiguo por más de 11 siglos, declinando progresivamente con el ascenso de la religión mahometana a partir del siglo VIII.
En Europa, a fines de la Edad Media, los conocimientos que favorecerían el nacimiento de la ciencia occidental fueron aportados tanto por la filosofía de Aristóteles como por el desarrollo posterior de la ciencia y la tecnología islámica impulsadas en gran medida por los principios científicos y filosóficos aristotélicos, que privilegiaron la observación de la naturaleza y la experimentación por encima de las dogmáticas nociones imperantes en el mundo medioeval que lo sumieron en la ignorancia, la  pobreza, la peste y las guerras.
De este modo, los conocimientos aportados por la cultura árabe permitieron atenuar 1.600 años del enorme vacío cultural, filosófico, científico y económico impuesto por la religión dominante, que implantó un servil oscurantismo en detrimento del progreso humano y la sociedad, en que tuvieron que pasar 16 siglos para volver a hablar de la máquina de vapor que inventara Herón de Alejandría en el siglo I, para recuperar las teorías griegas sobre la esfericidad de la Tierra y el heliocentrismo, los movimientos planetarios, los conocimientos de Arquímedes, Euclides y Ptolomeo, los avances en medicina y cirugía, la idea del átomo así como los importantes desarrollos árabes en agricultura, medicina, higiene y salud pública, matemáticas, ingeniería, urbanismo, arquitectura y edificación.
El estudio de la física del Universo propuesto como filosofía natural por Aristóteles seguirá siendo motivo de preocupación entre los árabes por más de un milenio y a mediados del siglo VIII incluían la mayor parte de los conocimientos acumulados por la humanidad en esa época; en la obra Trivium de finales del siglo V se trataron en profundidad los conceptos básicos de espacio, tiempo, materia y vacío así como la "ciencia del movimiento" que estudia la relación entre impulso y velocidad, trabajos en los que se apoyará Isaac Newton 12 siglos después para establecer sus trascendentes definiciones.   
Sir Roger Bacon (inglés, n.1214) ideólogo del artesanado, estudioso de la ciencia árabe y fuerte adversario de la Escolástica, preconizaría el estudio experimental de la naturaleza atribuyendo a los teólogos el estancamiento de la ciencia que "con sus métodos represivos han hecho peligroso hasta hablar de la naturaleza". Su Novum Organum ("El Nuevo Instrumento") sistematiza el proceso de adquisición de conocimientos por un proceso de inducción a partir de la visión aristotélica de observación de los fenómenos; en su opinión, “la ciencia debe tener por objeto el acrecentamiento del poder del hombre sobre la naturaleza para el bien de la humanidad" y por primera vez algunas de sus obras no fueron escritas en Latín como las de sus predecesores, idea insurreccional para la Iglesia que posteriormente seguirán Martin Lutero y Galileo Galilei.
Una interpretación que transformará hasta nuestros días la visión del tiempo en el pensamiento occidental fue introducida por los profetas del judaísmo gracias a la obra del filósofo judío Filón de Alejandría — una significativa expresión del sincretismo  religioso de la primera mitad del siglo I que integró la filosofía griega y la teología hebrea — que  rompiendo con la idea del eterno retorno, rechazan la noción del Fatum o destino implantada por los griegos. Esta visión del mundo sobre la que se construirá la moderna concepción cristiana, en analogía con las culturas orientales confiere gran importancia a la búsqueda de desarrollo ético de un ser humano que no se encuentra en una cíclica fatalidad, sino en tránsito hacia un mundo ideal que se aproxima, con un tiempo finito contrapuesto al tiempo cíclico y eterno de los griegos, siendo la primera civilización en introducir en el pensamiento occidental las ideas de un proceso originario de formación del universo y de un tiempo finito para la especie humana, así como la idea del libre albedrío que hasta hoy caracteriza al pensamiento occidental.
La Escolástica impuesta por la iglesia medioeval tenía por fin sistematizar una concepción  del mundo en términos oscuramente aristotélicos, de lo que se encarga  Santo Tomás de Aquino, quien intenta acoplar la filosofía de Aristóteles con las doctrinas judeo-cristianas, a fin de cuentas contrapuestas. La cristianización de Aristóteles realizada por Santo Tomás pretende unificar las ideas de un origen creacional del mundo y el fin de los tiempos con un tiempo cosmológico infinito, por lo que se estructura en base a dos sistemas temporales contrapuestos que aparecen como complementarios: el tiempo lineal y finito del mundo terrenal junto al espacio-tiempo de la eternidad o tiempo de Dios, en una dimensión ajena a la nuestra; de este modo, la descripción del tiempo impuesta por la iglesia medioeval es un continuo ilimitado, homogéneo e independiente, fluyendo como un río en una sola dirección y aunque señala la existencia de un fin de los tiempos, su infinitud constituye una reafirmación del concepto de divinidad espaciotemporal eterna preexistente.
La cosmología de Isaac Newton enunciada en su obra Principia Mathematica editada en 1687  se enmarca en estas contradictorias descripciones de tiempo, espacio y movimiento estableciéndolos como absolutos, continuos, infinitos, eternos, uniformes y sin relación entre ellos, descartando el factor subjetivo en la percepción del tiempo y su relación con el movimiento expresada por Aristóteles, definiendo su existencia física concreta y su medición objetiva con el empleo de relojes, pues tanto el tiempo como el espacio son magnitudes objetivas, mensurables y no relacionadas a nada externo, en un mundo en eterno movimiento en que no hay lugar para el presente. De este modo, el concepto de  tiempo absoluto y matemático de Newton tiene existencia en sí, por su propia naturaleza y fluye uniformemente aunque no indica su sentido o reversibilidad y como en Aristóteles, el ser humano es un mero espectador.
El inventor del telescopio — Galileo Galilei — antes de ser perseguido y excomulgado por la Iglesia Católica por sus “pecados cosmológicos” había demostrado tras años de observar el cielo que no existen movimientos absolutos sino que éstos son relativos al plano desde donde se los mida; esto quiere decir que si alguien está en movimiento uniforme  — por ejemplo en un barco — sin observación externa no tendría forma de comprobar si se encuentra en reposo o en movimiento; por tales razones, Newton no tuvo argumentos para impugnar la relatividad del movimiento de Galileo pero sí la del tiempo y del espacio; su obra Diálogo sobre los dos máximos sistemas del mundo escrita en italiano y no en latín, permanecería incluida en el Índice de libros prohibidos por la Iglesia católica por más de dos siglos — desde 1633 hasta 1835 — y su autor moriría en su domicilio cercado por la guardia Vaticana.
La obra de sir Isaac Newton — aunque impresionaba a la corte por su erudición — no fue comprendida ni valorada por el mundo científico de su época en gran medida por las características controversiales de su personalidad, en que la incomprensión y las intrigas dificultaron su vida; no tuvo conciencia del impacto de sus teorías en la ciencia ni de la importancia de sus desarrollos matemáticos, viviendo sus últimos años enfrascado en obscuras rencillas con Leibniz, quien había desarrollado independientemente conceptos de cálculo diferencial semejantes, siendo los trabajos posteriores de Laplace que aclaran los puntos discordantes y las desavenencias dejadas por su antecesor, extendiendo los geniales conceptos matemáticos del cálculo diferencial de Newton y Leibniz y dando a las ideas de la geometría analítica desarrollada por Descartes una mayor elegancia y eficacia. Su Traité de Mecanique Céleste publicado entre 1799 y 1825 que ha sido el mayor aporte a la teoría de la gravitación establecida por Newton, todavía es considerada una obra fundamental en mecánica clásica.
Pocas teorías científicas han tenido tanta influencia en las ciencias como la teoría de Newton de la gravitación universal y pese a haberse convertido en la ciencia oficial de la iglesia paradojalmente dio inicio a su separación de la religión, inaugurando el denominado “siglo de las luces” en que subyacen las originales ideas de Aristóteles, demostrando que si se observan fenómenos de la naturaleza, se razona y se emplean modelos matemáticos, es posible descubrir sus más íntimos secretos, siendo una de las razones de los éxitos científicos que siguieron, que generalizan en la sociedad la convicción de poder describir los fenómenos fundamentales de la naturaleza mediante  leyes matemáticas, generándose una perspectiva para la acción que podemos denominar “la búsqueda del futuro” vigente en la ciencia hasta nuestros días, cuyo mejor exponente es Einstein.
Aunque Pierre Simón de Laplace es autor de una considerable obra científica — en que destaca la formulación del sistema métrico decimal, los inicios de las teorías del juego  y  de probabilidades, la primera teoría del error, el estudio de las ecuaciones diferenciales y la geodesia — es la divulgación de las leyes del movimiento universal desarrolladas por Newton lo que le otorga su mayor prestigio como científico y aunque Napoleón lo nombra miembro del Senado, Canciller, mimbro de la Legión de Honor, siendo elegido miembro de la Royal Society de Londres en 1789, tras la restauración de la monarquía es el rey de Francia Luis XVIII quien lo otorga el título nobiliario de  Marqués en gran medida debido a la difusión de las ideas de Newton.
No obstante, Le Traité así como Le Discours de la méthode del matemático y filósofo Francés René Descartes generalizan la idea de que la realidad física es una cadena de causas y efectos en que todo en la naturaleza está mecanizado, de modo que las leyes del  universo en que vivimos — separadas del mundo eterno de los dioses que tiene otras inexplicables leyes como la gravedad — pueden describirse con una serie de fórmulas matemáticas que tomando datos desde un sistema físico y representándolo con las ecuaciones apropiadas para establecer cómo este va a evolucionar en un determinado período de tiempo, se obtienen resultados que inequívocamente representarán la realidad, de modo que bastaría con conocer lo que hubiera ocurrido en el pasado para  predecir lo que ocurrirá en el futuro.
El modelo de pensamiento de Newton, Descartes y Laplace cimenta una corriente filosófica denominada determinismo o mecanicismo que se extendió  a todas las ciencias, en que los científicos de todo el mundo se vieron rodeados por una fiebre mecanicista alentada por una sucesión de proezas científicas, en que se tenía el convencimiento que gracias a la regularidad y el orden periódico con que se cumplen los fenómenos naturales, era de esperar que la ciencia pusiera rápidamente de manifiesto todos sus secretos; no obstante, por ser Newton el iniciador del concepto de Deus et Machina en que todos los procesos de la naturaleza pueden reducirse a procesos mecánicos originados en causas divinas externas al mundo físico semejantes al ideal griego, estas se le asignan enteramente pese a haber sido puestos en duda desde finales del siglo 19 por el electromagnetismo debido a la obscuridad de las definiciones del mágico origen de las fuerzas de gravedad.
No obstante sus aportes matemáticos y su potencial descriptivo, aunque también por su afinidad con los ideales políticos que dan inicio al proceso de industrialización en Europa y Norteamérica — en que el carácter de la ciencia estuvo fuertemente condicionado por el desarrollo del capitalismo industrial — hicieron que su aplicación se generalizara a todas las ciencias si bien con reparos cartesianos por la ausencia de un concepto objetivo del origen de fuerzas que no requieren de un medio material para su propagación y aunque se obtuvieron importantes avances en algunas ciencias — especialmente en áreas tecnológicas, mecánica celeste y cálculo — sus beneficios no fueron los esperados por sus seguidores, que habían difundido la idea que con la aplicación generalizada del mecanicismo en las ciencias, el fin de la física y de las matemáticas era cosa de tiempo, mentalidad que aún hoy es la base del pensamiento de muchos científicos conservadores que aferrados al determinismo, retrasan el desarrollo de la ciencia  en mucha mayor medida que sus aportes.
Sin embargo no es la Relatividad de Einstein quien deberá enfrentar al mecanicismo de Newton, Descartes y Laplace en la superación de la visión determinista en la ciencia contemporánea; la teoría electromagnética de Faraday apoyada en el revolucionario concepto de campo de Maxwell, sentará las bases de la física moderna allanando el camino a la Relatividad General en su concepción del mundo, siendo la primera ciencia en tener un impacto en la economía mundial comparable al de la electrónica actual, al permitir el desarrollo de una serie de aplicaciones de gran trascendencia en el modo de vida de la sociedad como la generación de energía eléctrica, el equipamiento e iluminación de la vivienda, la publicidad luminosa, el alumbrado público, el motor eléctrico, la comunicación telefónica y  radial, los rayos X, los tranvías, etc., iniciando el uso masivo de la energía y la tecnología en todo el mundo, confirmando el ideal cartesiano de que las ciencias son la llave para avanzar hacia el futuro.
La teoría de Maxwell fue el resultado de su analogía con el cálculo de las fuerzas newtonianas que varían con el inverso del cuadrado de la distancia, pero también un producto inesperado de la fisura entre el determinismo de Descartes y la metafísica de Newton debido a las obscuras definiciones del origen de las fuerzas. En esas circunstancias, para científicos como Cavendish y Coulomb,  las  leyes  de Newton, las matemáticas de Leibniz y los trabajos de geometría analítica de Descartes constituyeron el marco teórico obligado para avanzar en el  desarrollo de los nuevos fenómenos de la electricidad y el magnetismo que se estaban descubriendo, puesto que sus conceptos eran inéditos, haciendo recíproco el modelo conceptual que proporcionó el magnetismo en siglos anteriores para el progreso de la teoría de la gravedad realizados por Kepler, Hooke y finalmente por Newton y Laplace.
Hacia finales del siglo XVIII se contaba con una hipótesis electromagnética construida según el modelo de Newton estableciendo la universalidad de las fuerzas ejercidas a través del espacio de manera instantánea y aunque su propagación inmaterial no concordaba con las mentes cartesianas, la preeminencia del legado de Newton era absoluta en ese tiempo, por lo que las ideas del electromagnetismo fueron enunciadas como un nuevo triunfo del mecanicismo asociado a una maquinaria divina en las ciencias.
Durante la primera mitad del siglo XIX la teoría del magnetismo prosiguió explicándose  con las pautas del paradigma mecanicista; en Francia científicos como Ampère y Cauchy analizaron las fuerzas magnéticas basándose en la ley de Coulomb, uniéndose a la visión del mundo que este había extendido a la electricidad, criticando a Oersted por no sumarse a la ortodoxia mecanicista y aventurarse en la metafísica cartesiana para explicar físicamente esas fuerzas, aunque en Inglaterra científicos como Faraday, Thomson y Maxwell investigaban el mecanismo físico subyacente examinando los efectos del medio en su propagación, pues poseían fuertes convicciones que les inducían a pensar que la interacción electromagnética requería de un medio físico para actuar, manifestando una resuelta resistencia a la incorporación de la metafísica en las ciencias y una progresiva aproximación al pensamiento científico y filosófico que culminará con el desarrollo de la teoría de campos de Maxwell y aunque este también se apoyó inicialmente en la  representación de un éter que obedecía las leyes de Newton, las dificultades ontológicas para construir a partir de ellas una explicación objetiva del campo electromagnético que no se basara en fuerzas sobrenaturales lo separan progresivamente de la analogía mecanicista y a pesar de no contar aún con una teoría para explicar su concepto físico de campo, defendió resueltamente sus ideas dándoles una existencia física real con el concepto de líneas de fuerza, presentando finalmente en 1865  A Dynamical Theory of the Electromagnetic Field la deducción de la propagación de la luz a partir de un campo electromagnético, demostrando la certeza y realismo de sus intuiciones, que tendrán una gran trascendencia en teorías posteriores — como la formulación del campo gravitacional de Einstein — búsqueda que recuerda la de Planck frente al quantum de propagación electromagnética, pues aunque Maxwell no contaba con una teoría de campos y estando aún lejos de formularla, sus desarrollos teóricos se basaron invariablemente en la premisa de los observables.
Puede decirse que hay un antes y un después de A Dynamical Theory of the Electromagnetic Field en la ciencia contemporánea; antes de su publicación en 1865 eran pocos los físicos interesados en las teorías de campos y quienes no estaban de acuerdo con ellas las calificaban de simples especulaciones metafísicas; después de su publicación fueron muchos — incluso Einstein — los que se interesaron en las nuevos conceptos; el motivo para este cambio fue que Maxwell logró cimentar por primera vez una teoría objetiva, de fácil visualización y de una lógica que superaba las obscuras fuerzas a distancia de Newton, modificando profunda y definitivamente no solo las leyes de la física sino las bases mismas de la ciencia, iniciando una revolución ontológica de gran trascendencia en todo el pensamiento científico occidental.
Desde el perfeccionamiento matemático realizado por Faraday, las teorías de campos proporcionan una hermosa solución al viejo problema de la mecánica de cómo un cuerpo ejerce una fuerza sobre otro, interrogante que puede rastrearse desde la filosofía griega que Newton analizó por mucho tiempo pero no pudo resolver, desarrollando el concepto de Deus et Machina para intentar explicar las incoherentes fuerzas a distancia de la mecánica determinista, visión mágica del mundo que en círculos del saber formal ha sobrevivido por casi tres siglos, siendo aún defendida por muchos y en diversos planos como la base de la iglesia católica en las ciencias.
La trascendencia de las teorías de campos radica en que las acciones a distancia se ejercen a través de un medio físico concreto como sustrato activo de la interacción entre los cuerpos, siendo un paso decisivo para transformar la visión de un mundo hasta ahí solo explicado por las leyes de la mecánica newtoniana y aunque el propósito inicial del programa de Maxwell fue extender las ideas de los fenómenos electromagnéticos a partir del paradigma newtoniano, las consecuencias de su búsqueda fueron paradójicas porque su teoría se contrapuso a las de Newton con un status ontológico que retira la metafísica de la ciencia estableciendo las bases de la física contemporánea al hacerla objetiva, por lo que en gran medida debemos a Maxwell y a sus conceptos de campo el desarrollo de la física del siglo XX tal como lo reconoció el mismo Einstein en una disertación en el Royal College de Londres en que afirmaba:
                 Constituye para mí un gran placer tener el privilegio de hablar en la capital del país en que han surgido las nociones fundamentales de la física teórica; me refiero a las teorías de los movimientos de masa y la gravitación estudiadas por Newton y al concepto de Campo Electromagnético que sirviera a Faraday y a Maxwell para situar la física sobre una base nueva y objetiva”.
“La teoría de la relatividad ha puesto un toque final al edificio construido por ellos intentando extender la teoría de campos a todos los fenómenos físicos (de interacción entre los cuerpos) incluida la gravitación. Sobre el tema específico de esta charla — la teoría de la relatividad — quiero reiterar que esta no tiene un origen especulativo sino que debe por entero su nacimiento al deseo de hacer que la teoría concuerde en la mayor medida posible con los hechos observados; no tenemos en ella un acto revolucionario, sino la continuación natural de una línea que puede trazarse a través de varios siglos. El abandono de ciertos conceptos de espacio, tiempo y movimiento (hasta ahora) considerados como fundamentales, no ha de considerarse arbitrario porque ha sido condicionado por los hechos observados”. 
“La ley de la constancia de la velocidad de la luz en el vacío confirmada por el desarrollo de la electrodinámica y la óptica así como la equivalencia de los sistemas inerciales confirmada por el experimento de Michelson hacen necesario que el concepto de tiempo se convierta en relativo toda vez que a cada sistema inercial se le adjudica un tiempo propio especial. En la medida que esta noción se ha desarrollado ha quedado patente que la conexión entre experiencia inmediata y coordenadas espaciales y temporales no ha sido pensada hasta el momento presente con precisión suficiente.”
“Dicho de modo más general, uno de los rasgos esenciales de la relatividad es su esfuerzo por descubrir las relaciones entre los conceptos generales y los hechos empíricos de una manera más precisa; el principio trascendental en su caso es que la justificación de un concepto físico estriba exclusivamente en su precisa relación con los hechos experimentados. De acuerdo con la teoría de la relatividad restinga las coordenadas espaciales y temporales aún conservan un carácter absoluto en tanto sean medidas por relojes estáticos y cuerpos rígidos, pero son relativas en la medida que dependen del estado de movimiento del sistema inercial seleccionado”.

La evolución de la relatividad desde Galileo.
Uno de los desarrollos teóricos de Galileo incorporado por Einstein como argumento central de la Relatividad es una idea publicada en 1902 por Poincaré en su libro La Science et l´hípothese; es una consecuencia de la transformación de Lorentz que refuta los absolutos de Newton introduciendo la idea que el tiempo y el espacio son relativos pues varían en marcos de referencia en movimiento. La contracción de Lorentz y Poincaré incorporada a la relatividad de Einstein como generalización de la relatividad de Galileo a la velocidad de la luz ha sido confirmada por diversos experimentos, revelando que el tiempo medido por un observador en movimiento respecto a otro mide un intervalo más pequeño que el que está en reposo, constituyendo una de las verificaciones experimentales más importantes de esa teoría.
Aceptar que el tiempo y el espacio conforman una sola entidad no sólo supone convertir a ambos en fenómenos físicos, sino también cuestionar la noción de simultaneidad; Newton pensaba que existe un presente universal en que dos acontecimientos pueden ocurrir al mismo tiempo en lugares distantes; sin embargo, la contracción de Lorenz y Poincaré prueba que no existe un momento que tenga validez universal puesto que al igual que en el espacio, no hay puntos de referencia temporales privilegiados en el universo, de modo que dos acontecimientos separados que ocurren simultáneamente para un observador equidistante, otro que se encuentre en movimiento entre esos puntos los medirá temporalmente distanciados y aunque en la vida cotidiana las velocidades comparadas con la de la luz son muy pequeñas para apreciar los efectos relativistas, eventos que tengan lugar en lugares alejados estarán en el presente para un observador cercano y en el pasado o en el futuro para otros en movimiento entre esos puntos, de modo que la única referencia temporal valida es la de cada observador y su plano de referencia, generalizando la idea de Galileo de que existe un tiempo propio para cada evento de la naturaleza, en que el valor de las coordenadas espaciotemporales en cualquier punto del universo son solo relacionales y nunca absolutas.  
En 1907, las investigaciones en torno a las teorías de Lorenz y Einstein condujeron a Minkowsky — matemático Ruso-Alemán, profesor de Einstein en la Universidad de Zúrich que en 1902 se incorporó a  la Universidad de Gottingen a trabajar con Gilbert y Riemann en las propiedades geométricas de los espacios n dimensionales — a relacionar los conceptos gravitacionales de la teoría de Einstein con una geometría no euclidiana desarrollada por Riemann, en que tiempo y espacio constituyen entidades que se integran en un espacio-tiempo tetra-dimensional en que la transformación de Lorentz adquiere un rango de propiedad geométrico-relativista, determinando la contracción de su tiempo propio y un incremento del tamaño de un cuerpo a medida que su velocidad se aproxima a la de la luz.
Esta original representación geométrica incorporada como argumento central de la Relatividad General, amplía los conceptos de la relatividad restringida al combinar la teoría de campos de Maxwell con el espacio-tiempo tetra-dimensional de Einstein, conformando un campo gravitacional que por su geometría no euclidea presenta importantes propiedades topológicas que pueden representarse como una membrana que se deforma en la proximidad de la materia.
Las teorías de Einstein constituyen una síntesis genial de una serie de ideas no relacionadas que logran por primera vez una representación del universo en que se unifica la gravedad con el espacio-tiempo y aunque los campos gravitacionales que  describe son casi planos en las proximidades del sistema solar por lo relativamente pequeño de sus masas — que suponen solo pequeñas curvaturas en su entorno — sus implicancias en la descripción de la estructura del Universo fueron más allá de lo que el mismo pudo imaginar y menos aún aceptar; una de ellas era que las estrellas masivas pudieran comprimirse por acción de su gravedad hasta que su campo gravitacional las aislase del resto del Universo. Einstein no creía que semejantes colapsos pudieran ocurrir, pero otros importantes científicos demostraron que una consecuencia inevitable de la teoría es que el campo gravitacional resultante de una gran concentración de materia, genera una  curvatura tal del espacio que la velocidad de escape supera la de la luz, induciendo la formación de agujeros negros; lo paradojal del genio de Einstein es que las implicancias de su teoría — que representan su mayor aporte a la cosmología contemporánea — discreparon con sus creencias religiosas y lo hicieron retractarse de sus conclusiones y pese a los objeciones de muchos de sus seguidores como Chandrasekaar, Gamow, von Neumann, Lemaître y el mismo Minkowsky que indicaban la necesidad de un espacio-tiempo finito en el universo descrito por sus teorías, impugna las necesarias consecuencias de la relatividad improvisando una hipotética variable cosmológica que reasigna al tiempo una dimensión infinita y lo regresa al viejo concepto de Newton. Dicho de otro modo, mientras la Relatividad General formula por primera vez en la historia de la ciencia una revolucionaria y original concepción finita del tiempo, del espacio y del universo que ha sobrepasado en múltiples ocasiones su verificación experimental, el mismo Einstein se aparta de sus conclusiones, improvisando una cuestionable variable cosmológica que posteriormente denomina "el error más grande de su vida”.
Otro de los desarrollos teóricos de Albert Einstein — de gran fecundidad intelectual en su juventud — es haber sentado las bases de la mecánica cuántica al advertir que el quantum determinado por Planck para describir la propagación electromagnética poseía una realidad física concreta: la carga unitaria de la onda-partícula que propaga el campo electromagnético denominado posteriormente Fotón, estableciendo por primera vez la idea que la materia es simultáneamente onda y partícula. Con el descubrimiento del quantum de propagación del campo electromagnético pudo completar las ideas de Maxwell  explicando el efecto fotoeléctrico, lo que le hizo acreedor al Premio Nobel de Física y no la relatividad, concepto controversial por muchos años en la comunidad científica que ha  sido fuertemente rechazado por la iglesia y al igual que la obra de Galileo considerada “espiritualmente peligrosa”, siendo calificada en Alemania, su país de origen — donde la discusión anti relativista adquirió un carácter abiertamente político y antisemita — como “una ideología disociadora de la ciencia y la sociedad”,  siendo denominada por los ideólogos del fascismo “una ilusión científica de las masas”. 
No obstante, su actitud ante las implicancias cosmológicas de sus propias teorías que tal vez constituye realmente el mayor error de su vida se expresó también en la mecánica cuántica, puesto que los desarrollos iniciados por Planck y por él mismo que inspiraron a otros físicos como Niels Bohr,  Werner Heisenberg y Erwin Schrödinger, en que el análisis de los observables de las órbitas electrónicas fueron progresivamente demostrando que en la descripción de la naturaleza microscópica, el valor de los parámetros conjugados que definen a las partículas manifiestan una indeterminación o incertidumbre que inicialmente fue confundida con errores en las mediciones y no como una imposibilidad sistemática; tras muchos intentos infructuosos concluyeron que el aparente error era una indeterminación estructural originada en la naturaleza ondulatoria de la materia que la mecánica cuántica ha denominado Relaciones de Incertidumbre, constituyendo su principio fundamental; estos conceptos llevaron a Einstein a afirmar — justificándose en sus creencias religiosas — que la mecánica cuántica es una teoría errónea, expresando su famosa frase “dios no juega a los dados” con que pasa a la posteridad su cerrada oposición a una teoría que contaba con sólido respaldo experimental y aunque el mismo contribuyó a fundar, intervino decisivamente para obstaculizar su desarrollo, actitud que dada la importancia científica, económica, estratégica y política de la electrónica, la telefonía celular, los automatismos, la computación y la robótica en la economía, en medicina y en toda la sociedad, sus afirmaciones podrían considerarse un verdadero atentado al desarrollo de la humanidad. Como afirmaba Minkowsky — profesor de Einstein en la Universidad de Zúrich — “la relatividad no está en buenas manos”, cuestionando el hecho de no aceptar las conclusiones de sus propias teorías.
Por haber sido Minkowsky el primer científico en comprender las implicancias cosmológicas de la relatividad general enunciando las propiedades de un espacio-tiempo tetra dimensional mediante la geometría de Riemann, se denomina espacio-tiempo de Minkowsky a una región espaciotemporal tetra-dimensional no euclidea de curvatura nula que es por tanto, sin masa.
No obstante, la trascendencia de las contribuciones de Einstein a la ciencia no radican en la  originalidad de las ideas básicas de la relatividad — que corresponden al trabajo de otros científicos como Galileo, Lorentz, Poincaré, Gilbert, Riemann, Minkowsky, Schwarzschild, Chandrasekaar, von Neumann, Göddel, Nordstrom, Fokker, Levi-Cittá y ni siquiera su nombre que le fue impuesto como anatema por Max Planck, quien estaba en completo desacuerdo con sus postulados y conclusiones  — sino en la unificación de una serie de conceptos físicos y geométricos que cimentan una revolucionaria visión del universo en la que subyace una cosmología que deja atrás definitivamente el paradigma newtoniano, superándolo en precisión y rigor científico al apoyarse en observables, extendiendo el concepto de campo de Maxwell a la gravedad, teoría que ha superado en múltiples ocasiones su verificación experimental permaneciendo vigente por casi un siglo ampliando en gran medida nuestra comprensión del mundo. Gracias a la Relatividad de Einstein, no solo los científicos sino que toda la cultura humana ha avanzado en la comprensión de los fenómenos que explican el origen y estructura del universo, acercando el quehacer científico a toda la sociedad.
No obstante los trascendentales aportes a la comprensión del universo de las teorías de Einstein, el conflicto más problemático para el futuro de la física ha sido la representación del tiempo en la relatividad, pues aunque comprendió la necesidad de un tiempo dinámico en las variables que convergen en la descripción tetra-dimensional del universo, lo agrega como una dimensión clásica semejante al tiempo de Newton y aunque estuvo al tanto de las complejas representaciones del tiempo en las teorías de Bohr y Heisemberg, su cerrada oposición a la mecánica cuántica le impidió incorporar a su teoría una representación temporal más dinámica como lo manifestara al proponer la transformación del tiempo en parámetro físico, incorporando solo su contracción asociada a la velocidad, despojando a la Relatividad General de un concepto que surge  necesariamente de la Transformación de Lorentz que a la luz de la dinámica relativista debieron convertirla en una verdadera revolución espacio-temporal del conocimiento científico, recogiendo las trascendentes ideas de Aristóteles de un tiempo dinámico asociado al movimiento; es decir, “formando parte integral de la explicación que puede darse de la physis” lo que hubiera permitido unificar el tiempo con los procesos evolutivos de la materia, de la energía y de la vida como ”un marco de referencia subyacente que forma parte de la naturaleza material y energética que lo integra y por tanto, una dimensión que cuantifica la irreversible evolución del universo”, visión dinámica que a excepción de los importantes aportes de Prigogine y sus estructuras disipativas, está pendiente en la ciencia desde Aristóteles hace 25 siglos.
Stephen Hawkins en su libro Breve historia del tiempo va aún más allá de la visión einsteniana reduciéndolo a una dimensión abstracta equivalente a una línea en un plano no euclideo, defendiendo la idea de un espacio tetra-dimensional con una dimensión temporal pasiva e indiferenciada de las demás dimensiones espaciales del universo; por el contrario, desde el punto de vista de la visión propuesta por Prigogine que implica la irreversibilidad del tiempo y de los procesos dinámicos de la naturaleza, lejos de mimetizarlo con las dimensiones espaciales, el tiempo propio es una dimensión que surge irreversiblemente de los procesos evolutivos de la naturaleza, siendo considerado una propiedad fundamental del universo puesto que en interacción unitaria con la materia y la energía establecen la dirección de aquellos procesos evolutivos que determinan la irreversibilidad de la flecha del tiempo, enfatizando que este no debe ser entendido como una dimensión única sino que existen tantos tiempos propios como eventos irreversibles se produzcan en la naturaleza.

El tiempo y  la causalidad.
El determinismo y la causalidad que subyace en sus fundamentos epistemológicos aseveran que el mundo físico evoluciona en el tiempo según principios predeterminados en que el azar es sólo un error accidental sin significado para la Ciencia, de modo que es posible generalizar el estado actual del universo como un efecto del pasado y la causa de un futuro enteramente predecible.
Este paradigma ha constituido un problema de fundamental importancia en Teoría del Conocimiento en los últimos siglos y continúa siendo objeto de estudio no solo desde el punto de vista filosófico sino cultural y hasta semántico, pues se afinca en hábitos arraigados en la civilización occidental, que han trasformado en una creencia sistemática la idea que es necesario interpretar los sucesos de la naturaleza estableciendo cadenas de afirmaciones que enlazan causas y efectos en forma tan inequívoca que casi todo el mundo las admite como un requisito indispensable para la descripción y el desarrollo de la ciencia.
No obstante que para Immanuel Kant la causalidad es una categoría axiomática apriorística del entendimiento humano, para David Hume no es tan indiscutible como parece (1740: 93) “no encontramos ninguna prueba material de que exista una condición necesaria y suficiente entre causa y efecto y solo podemos penetrar en la razón de la conjunción mediante la imaginación”.
Admitiendo la consistencia de las reflexiones de Hume, debemos comprender que no es posible demostrar experimentalmente que un acontecimiento cause siempre otro, lo que es especialmente erróneo en el mundo subatómico; no obstante, la pretensión de explicar el mundo en forma causal ha generado grandes conflictos en la historia del pensamiento occidental, en que la subordinación a ingenuas y esotéricas interpretaciones causales de los fenómenos de la naturaleza durante toda la Edad Media debido a la preeminencia de la religión en las ciencias tuvo graves consecuencias en el desarrollo científico y económico de toda la humanidad, las que solo se han podido esclarecer empíricamente a inicios del siglo pasado con el descubrimiento de la mecánica cuántica cuyo enunciado central — el principio de incertidumbre — cuestiona la validez de la filosofía causal, demostrando objetivamente su incoherencia en la interpretación de la naturaleza al poner en evidencia la indeterminación del comportamiento de la materia, en que muchos procesos ocurren de un modo más complejo y estadístico que el expresado por el orden determinista de la filosofía causal.
Aristóteles — en su obra Segundos Analíticos — estableció las nociones fundamentales de la causalidad diferenciando en ella cuatro categorías: la causa efficiens del impulso o energía; la causa materialis referida al componente físico; la causa formalis  relacionada con la forma y disposición del objeto y la causa finalis, que es el objetivo o teleología de la substancia. Sin embargo, la pretensión de hallar la causa primera de las diversas propuestas científicas ha impulsado a supeditar sus fundamentos a alguna de las cuatro categorías, generándose tendencias contrapuestas; unos consideran la causa finalis el origen de todas las causas, siendo el propósito u objetivo quien determina los acontecimientos, constituyendo el fundamento central de las ciencias filosóficas, del que las ciencias naturales se han mantenido permanentemente alejadas pues les resulta hipotética la subordinación de las leyes de la naturaleza a un propósito previamente establecido, de modo que estas se adscriben al principio energético o causa efficiens adoptado por estas.
Estas formas contrapuestas y excluyentes de explicar la realidad, han separado las ciencias naturales de las filosóficas haciendo dificultosa su mutua comprensión, pues mientras las primeras sitúan las causas en el pasado, el modelo de finalidad de la filosofía lo hace en el futuro. Observando los contenidos de las diversas ciencias, constatamos que unos favorecen la adopción de una causalidad energética y otros a un destino u objetivo predeterminado; sin embargo, unas y otras enfatizan diversos planos que se contraponen unilateralmente a la realidad, pues mientras la causa efficiens establece una relación dinámica referida al plano material, la causa finalis expresa una intencionalidad o principio ordenador proveniente de la voluntad de un ser pensante; sin embargo, ambos puntos de vista no debieran excluirse mutuamente pues constituyen polaridades de una realidad más compleja que sus partes, que obliga a una visión de conjunto para su comprensión; de este modo, aislar alguna de ellas para representar el todo constituye una inferencia sin significado real para la ciencia, pues ni la iniciativa ni la finalidad bastan por sí mismas para describir la realidad, pues cada extremo está enlazado con su opuesto y nuestro propósito debe ser representar el mundo de tal modo que causas y efectos se integren en un todo unitario indivisible y dinámico en que hacer abstracción de alguna de sus partes o de sus correlaciones para representar la realidad puede originar grandes errores.
Muchos fenómenos de la naturaleza son duales; los imanes poseen dos polos que no pueden existir separadamente; la luz es una dualidad onda-partícula en que ambos estados forman un todo biunívoco inseparable; en mecánica cuántica, las partículas son descritas por una superposición de estados que no poseen valores independientes sino probabilísticos que presentan un nivel de indeterminación propia de los estados cuánticos que sin embargo — desde el punto de vista operacional — representan perfectamente a la partícula, constituyendo el fundamento binario de la gran transformación que ha experimentado la sociedad contemporánea con el uso masivo de la electrónica. En todos estos casos, considerar un solo aspecto de la realidad puede originar graves errores en la descripción de la naturaleza; del mismo modo, las causas finalis y efficiens no pueden por sí mismas describir la naturaleza porque una no puede prescindir de la otra pero en conjunto — e incluyendo su organización y estructura — pueden aproximarse a una descripción coherente la realidad, pues la complejidad de los procesos naturales es indisociable.
Sin embargo, para los científicos la causa finalis es demasiado hipotética e improbable, por lo que se inclinan por la causa efficiens y para los filósofos esta es demasiado pobre e insuficiente y como sus proposiciones se vinculan a un plano más abstracto, optan por la causa finalis. Unos y otros manifiestan la intención de entender el mundo con fundamentos que aunque pretenden ser racionales, son solo conjeturas ideológicas que intentan aproximarse a un conocimiento objetivo de la realidad desde planos semánticos extraños a la ciencia y no con las herramientas que le son propias: la observación y verificación de los observables de la naturaleza mediante la experimentación y su  modelización mediante las matemáticas; ambos representan la dualidad determinista que estableciera Descartes entre materia y espíritu, cuerpo y mente, sujeto y objeto, de modo que entre el observador y lo observado, entre forma y contenido no haya una relación digna de tenerse en cuenta. Cree así la causalidad haber conseguido su ideal frente a la Filosofía: descartar de la Ciencia todo elemento subjetivo, pretendiendo haber construido una teoría objetiva del mundo cuando en realidad lo ha disgregado y al hacerlo, lo que aparece no son sus leyes, sino estados fragmentarios e incompletos de fenómenos que conforman una realdad más compleja y dinámica que sus partes separadas.
En el estudio de la evolución, aunque es incuestionable que esta no es un evento azaroso puesto que ha estado presente desde el mundo prebiótico hasta la compleja evolución de la vida sobre la tierra, existe un debate que llena bibliotecas: ¿puede explicarse la existencia de la vida como una cadena causal desde el pasado hacia el futuro a consecuencia de una sucesión de saltos evolutivos aleatorios desde el átomo de Hidrógeno hasta el cerebro humano, o acaso la causalidad precisa de una intencionalidad que opere hacia el futuro haciendo discurrir la evolución hacia un objetivo predeterminado?
Esta pregunta permite profundizar en un dilema que no es solo disyuntivo puesto que alude a la estructura de uno de los parámetros fundamentales del universo como es el tiempo: la causalidad requiere de una condición de linealidad que determine un antes y un después, exhortando a que el tiempo transcurra en una sola dirección desde causa a efecto; no obstante, la evolución es en sí misma una ruptura de la linealidad pues enlaza el pasado con el futuro en un presente en permanente evolución, exteriorizando la inconsistencia de la causalidad en las leyes de la naturaleza; de este modo, el tiempo lineal es solo una construcción intelectual que proyecta nuestra conciencia, induciéndonos a fragmentar una entidad temporal unitaria inseparable de la materia y la energía en una imaginaria correlación que transcurre hacia el futuro, generando la ilusión que el tiempo fluye independientemente del mundo físico, pasando por alto que eso que llamamos presente no tiene un valor absoluto como demostró Einstein, pues  cada punto del espacio-tiempo tiene solo un valor relacional relativo al plano desde donde se observe, conformando eventos no deterministas sino estadísticos e indisociables de la materia y la energía como lo muestran la Relatividad General, la Mecánica Cuántica y la Evolución, que en su dimensión temporal se unifica el pasado, el presente y el futuro: el pasado, pues la materia evoluciona en el tiempo en forma irreversible desde estructuras simples hasta otras de mayor complejidad; el presente, que — con la energía disponible  — el azar y la entropía determinan un creciente nivel de eficiencia en un medio en permanente cambio, y el futuro, en que la incertidumbre de la materia y la energía irán conformando los nuevos principios de la naturaleza que determinarán la evolución armónica de sus entes y su sobrevivencia en ese devenir del tiempo que denominamos futuro
Las dificultades de una respuesta consistente desde el punto de vista científico a estos temas muestran que cuando nos enfrentamos con la complejidad y el dinamismo del mundo físico real, no son apropiadas las relaciones causales, la filosofía o la religión; de  este modo,  los procesos evolutivos que se encuentran generalizados en la naturaleza no pueden ser comprendidos como producto de un plan preestablecido de creación del universo o la voluntad creadora de un ser inteligente que actúa desde el futuro, pues son inducidos por reglas locales que evolucionan desde las existentes a partir de sus contradicciones con el medio, en que sus posibilidades de subsistir estarán dadas desde un pasado que se perfecciona y proyecta en ese tiempo propio en permanente cambio que denominamos presente, en que la limitada energía del medio irá determinando un progresivo umbral de eficiencia y solo aquellas estructuras que posean las condiciones necesarias para perdurar frente a la competencia de su entorno llegarán estadísticamente a predominar, determinando así un futuro no causal sino probabilístico tanto en el mundo físico como en los seres vivos.
Este enlazamiento espacio-temporal, que unifica el tiempo con los demás parámetros de la naturaleza puede hacerse comprensible con una analogía geométrica: si nos alejamos permanentemente de un punto de la tierra, debido a la curvatura del planeta regresaremos al mismo punto de partida desde el lado opuesto y en general, los desarrollos geométricos de Riemann permiten afirmar que en el universo toda recta prolongada al infinito se transforma en geodésica y termina por cerrarse en un círculo; extendiendo este concepto  a la línea del tiempo veremos que ambos extremos de la línea — pasado y futuro — se encuentran en el presente, de modo que la información que las estructuras de la materia requieren para prevalecer ante la entropía — que se  valida en un presente en permanente evolución para prosperar en el futuro — se recibe necesariamente desde el pasado, siendo un efecto local no teleológico que mediante la evolución de los principios de la naturaleza, la materia y la energía interactúan de un modo discontinuo, azaroso y no determinista constituyendo el camino que cimenta la irreversibilidad, acoplando el tiempo con la materia y la energía de un modo cada vez más eficiente; es decir, vivimos en un presente dinámico que en su evolución enlaza el pasado con el futuro del mismo modo que en un viaje alrededor del mundo se regresa al punto original, pudiendo describirse como partes de un todo que conforma una estructura espacial, temporal y energética indivisible, funcional y evolutiva, que al hacer cada vez mejor utilización de la materia y la energía del medio, determina siempre el mejor de los mundos posibles.
Lo substancial de estas reflexiones es que el valor relativo de cada elemento del universo — incluyendo en ellos al tiempo — solo puede ser descrito como parte de un todo inseparable en que el valor aislado de cada uno de sus parámetros es solo una abstracción, pues es su relación con el todo lo que le permite adquirir un valor estadístico enteramente indexado a sus variables locales, en que la evolución de esas variables y su carácter aleatorio en conjunto con la entropía pondrán en juego las relaciones entre los elementos y su organización para constituir un espacio-tiempo-energía que evoluciona hacia el futuro junto con las demás variables de la naturaleza constituyendo el soporte estadístico de la evolución de la materia y de la vida; el futuro así descrito está abierto a procesos siempre nuevos de transformación y aumento de la complejidad no solo de los sistemas vivos, sino de todo el universo.
Solo aceptando que el tiempo lineal es una ilusión que no existe fuera de nuestra conciencia el esquema filosófico de la causalidad deja de tener sentido y se desmorona. Solo así lograremos comprender que la linealidad que expresa el determinismo no es más que una construcción subjetiva, una creencia o como dijo David Hume: “una necesidad del alma”; entonces lograremos advertir lo efímero, irregular y cambiante pero al mismo tiempo unitario e indisoluble en los procesos transitivos de la naturaleza que — lejos de ser caóticos — se  articulan en eventos constructivos de gran dinamismo que son el origen de los procesos evolutivos del universo.
Las dificultades para la comprensión de estos temas obligan también a cuestionar una serie de supuestos fuertemente arraigado en nuestros sistemas educativos, de modo que estos reorienten sus argumentos hacia la aprehensión y modelización de sistemas dinámicos complejos abiertos a los cambios; esto incrementará nuestra capacidad de comprender, utilizar y construir totalidades que evolucionan y no para representar los fenómenos de la naturaleza en forma estática, fragmentaria y polarizada, pues la materialidad del mundo en sus diversas manifestaciones dinámicas temporales y espaciales es una unidad indivisible en todas las escalas que  representemos la realidad.
La probabilidad en los procesos dinámicos de la naturaleza.
Para Prigogine el progreso científico depende en gran medida de una estrecha colaboración entre las ciencias naturales y las ciencias del hombre;  a pesar de ser tan diferentes, Thom y Prigogine coinciden en oponerse a la fragmentación del conocimiento expresando que: “las ciencias exactas y las humanas están condenadas a progresar o a perecer juntas. La ruptura entre ambas disciplinas obedece a que las ciencias humanas relatan acontecimientos y las ciencias físicas buscan leyes inmutables, pero la ciencia de la complejidad invalida esta oposición porque los fenómenos físicos son también sucesos que no obedecen a leyes inmutables y podríamos agregar: la oposición se disipa cuando advertimos que también es posible analizar los fenómenos humanos desde el punto de vista de los procesos irreversibles, entendiéndolos como sistemas complejos alejados del equilibrio”.
Según Karl Popper (1985: 434) “la probabilidad de ocurrencia de un suceso singular en la naturaleza debe interpretarse como la medida de una predisposición inherente de la materia y la energía, un potencial objetivo para que un suceso físico ocurra”. Para deducir esta definición, parte de la siguiente aseveración: "Cualquiera que sea la definición que adoptemos acerca de los enunciados científicos de la probabilidad, la interpretación frecuencial es fundamental puesto que son siempre enunciados estadísticos los que sometemos a verificaciones empíricas para determinar objetivamente su validez” (Karl Popper, 1985: 400). Para comprender esta aseveración, la siguiente referencia a las condiciones de una situación experimental es decisiva: "Con propensión aludimos al potencial de una situación a producir frecuencias si el experimento es repetitivo; de ese modo, “las propensiones” son disposiciones a producir frecuencias según la interpretación de la teoría clásica, pero propensión no significa frecuencia porque hay sucesos que no se repiten con la frecuencia necesaria para producir una sucesión aleatoria, aunque pueden tener un potencial estadístico” (Karl Popper 1985: 436) de modo que los sucesos poco frecuentes son también posibles porque son objetivamente potenciales y deben ser considerados componentes presentes en toda expresión de la realidad, pues en cualquier población de seres vivos, de moléculas de un gas o tirada de cartas de un naipe existirán valores que se apartan del promedio — que solo representa la tendencia mayoritaria pero no la totalidad — por lo que debemos entenderlos como propensiones de menor frecuencia que forman parte estadística de la realidad, pues alguna fracción significativa de sucesos y ocurrencias de eventos improbables o accidentales se presentará con la regularidad de una ley de la naturaleza en cualquier situación si la población es lo suficientemente grande.
Estos sucesos de menor probabilidad que emergen entre el conglomerado de eventos estadísticamente más probables, aunque no son fáciles de evidenciar en poblaciones poco representativas, no pueden ser ignorados por la ciencia pues son capaces de sobrevivir a la reversibilidad; en palabras del maestro Prigogine: “y aunque el azar constituye una probabilidad estadísticamente libre,  impredecible y de baja frecuencia, siendo la reversibilidad el estado más frecuente de la naturaleza, es la raíz misma del edificio de la evolución al permitir a la entropía seleccionar las nuevas organizaciones de la materia y la energía entre los eventos azarosos de la naturaleza, consiguiendo apartarse del determinismo y la reversibilidad con estructuras originales creadas a partir de las existentes, generándose nuevas combinaciones que deberán poseer la facultad de ser cada vez más exitosas para preservarse ante la competencia y las crecientes presiones de un medio con recursos limitados, condición que denominamos irreversibilidad, que indica una dirección objetiva de la flecha del tiempo definida por los procesos evolutivos de la naturaleza”.
De este modo, Prigogine redescubre las ideas de Boltzmann del carácter probabilístico de la Segunda Ley de la Termodinámica y expresa: ”La noción de probabilidad introducida por Boltzmann en Termodinámica fue un golpe de lucidez de extraordinaria fecundidad para la ciencia, haciendo de esta verdadera grieta en el carácter determinista de la materia una fuerza de acción que tendrá una trascendencia decisiva en la evolución del universo; después de siglos hemos comenzado a comprender cómo surge la dinámica en el universo a través de la inestabilidad y el azar: éstos rompen la equivalencia entre el nivel individual y el nivel estadístico de los procesos de la naturaleza al extremo que las probabilidades cobran una significación fundamental e imprescindible en los procesos evolutivos, no reductibles a una interpretación en términos de ignorancia o aproximación, pues es una propiedad intrínseca de la materia que determinará con el tiempo la evolución y el cambio” (Ilya Prigogine 1996: 37-38); vale decir, si aceptamos los supuestos de la Mecánica Estadística deberemos tomar el concepto de probabilidad como un componente esencial de la realidad material y extraer de él sus necesarias consecuencias; como afirma Margenau (1970: 261): "si estas probabilidades son intrínsecas en la materia, deben formar parte de las teorías, siendo necesario incorporarlas a toda representación objetiva de la realidad” adoptando expresamente una representación objetiva” “puesto que la teoría subjetiva de las probabilidades surge de la falsa creencia de que las utilizamos sólo si tenemos un conocimiento insuficiente"(Karl Popper, 1985, p.321) y que la realidad es determinística como pensaba Einstein acerca de los conceptos probabilísticos del principio de Indeterminación de la mecánica cuántica, reflejando sus vacíos epistemológicos en la representación de la realidad sustentados en una serie de supuestos mecanicistas que aún persisten en la ciencia.
El desarrollo de la física del no equilibrio — al permitir una comprensión profunda de los complejos procesos transitivos de la naturaleza — nos obliga a reconsiderar una serie de conceptos proscritos desde Galileo, en que la física vuelve a encontrar la multiplicidad, la eventualidad y el cambio entre los procesos dinámicos del mundo físico, incluyendo en ellos al tiempo; esto no niega la evolución de sistemas aislados hacia el equilibrio, pero también hacia bifurcaciones, inestabilidades, resonancias o el azar del mundo macroscópico y la indeterminación del comportamiento microscópico que manifiestan los fenómenos cuánticos, en que las partículas subatómicas definidas por su comportamiento ondulatorio presentan un grado de indeterminación intrínseco que no permite definirlas en forma clásica, lo que obliga a revisar una serie de supuestos como el tiempo e incluso el concepto mismo de materia, que exhortan a ser definidos en forma inseparable de la energía.

La flecha del tiempo.
Las leyes que subyacen tras el comportamiento del Universo han sido descritas como temporalmente simétricas, pues se piensa que las entidades de la naturaleza actúan sin distinguir entre pasado, presente y futuro, lo que es enunciado por las dos grandes teorías que representan los procesos del mundo físico que son la Relatividad General y la Mecánica Cuántica; si bien hasta hoy ambas describen un tiempo reversible para definir las conductas de la materia, percibimos el tiempo moviéndose sólo en una dirección desde el presente hacia el futuro. No obstante, para Prigogine “la asimetría temporal del Universo no se refiere a la dirección en que subjetivamente percibimos fluir el tiempo hacia el futuro — denominada irreversibilidad psicológica — sino a la dirección objetiva de evolución temporal de los procesos materiales de la naturaleza, en que pasado y futuro manifiestan una asimetría sobre el presente en que el pasado inmutable y sin retorno se distingue del futuro en los eventos de la naturaleza, siendo denominada la  “flecha del tiempo”.
Esta expresión fue acuñada el año 1927 por el físico y astrónomo británico Sir Arthur Eddington en su libro The Nature of the Physical World en relación a la Segunda ley de la Termodinámica “para distinguir la dirección del tiempo en un universo relativista que puede ser comprobada en diferentes sistemas y escalas de la naturaleza, tanto en átomos y moléculas como en los fenómenos irreversibles de la naturaleza macroscópica: Tracemos arbitrariamente una recta unidireccional; si al seguir la flecha encontramos que la proporción del elemento azar va en aumento en el estado del mundo, entonces la flecha apunta hacia el futuro; si en cambio esta proporción disminuye, la flecha apunta hacia el pasado. Designaremos con la frase flecha del tiempo a esta característica del tiempo sin correlativo espacial pues en el espacio no se encuentra característica análoga de tener una dirección  determinada.”
Aunque no compartimos las definiciones de Sir Arthur en torno al azar y la dirección de la flecha del tiempo, al final de su frase manifiesta un concepto que establece una importante diferencia entre el espacio y el tiempo a nivel macroscópico: Si en el espacio podemos movernos de izquierda a derecha y viceversa, subir y bajar, etc., ¿por qué no podemos ir al pasado y regresar? Esta observación no es nueva; Aristóteles —reflexionando en torno a su concepto espacio-temporal asociado al movimiento — había hecho referencia a esa aparente irreversibilidad de la dimensión temporal que se opone a las afirmaciones de la ciencia clásica, a la relatividad y a la mecánica cuántica que aseveran que en la naturaleza pasado y futuro son reversibles aunque existen una serie de fenómenos cuánticos que hacen necesaria un reexamen de los conceptos asociados al tiempo pues los existentes no los explican adecuadamente, como el fenómeno de interferencia—  que muestra que una onda debe ir y regresar del futuro para manifestar la interferencia —  o el entrelazamiento cuántico, en que un par de partículas creadas simultáneamente a partir de una colisión, al cambiar una de ellas cambia instantáneamente la otra distante sin mediar señal alguna, que además de recordarnos los paradigmas newtonianos con sus obscuras fuerzas instantáneas a distancia,  violaría el principio de la velocidad de la luz, pues no puede explicarse en forma determinista cómo una partícula distante pueda recibir información del cambio de parámetros de la otra en forma instantánea, salvo que se acepten como leyes objetivas del mundo subatómico el doble carácter corpuscular-ondulatorio de la materia de modo que sea representada por campos y no por partículas, cuestión que logra explicar la simultaneidad cuántica y la interferencia con las leyes conocidas de la física. No obstante, pese a enunciarse experimentalmente la irreversibilidad temporal de esos fenómenos, el pensamiento determinista piensa que la incertidumbre temporal de los fenómenos cuánticos constituyen “paradojas aún no resueltas” en el mundo subatómico que se deben superar pues “no es que los acontecimientos sean imprevisibles sino que aún no hemos descubierto las leyes que permitan preverlos”.
En el mundo macroscópico las cosas no están mejor pues el Segundo principio de la Termodinámica o entropía  –– teoría desarrollada para comprender los fenómenos térmicos necesarios para construir máquinas de vapor, que describe sistemas aislados que evolucionan hacia el equilibrio –– ha extendido su empleo hacia todos los sistema de la naturaleza enunciando una flecha del tiempo que se opone al mundo real, transformándose en un principio cosmológico que decreta la inevitable muerte térmica de un universo despojado del sentido creativo de la materia y la energía, sin dar cabida en las leyes de la física a la evolución del mundo físico y a la vida, aspectos que se tratarán a continuación.        

La Termodinámica y el tiempo en Prigogine
Para Prigogine “el tiempo es una dimensión perdida entre el determinismo de la física clásica y el de la relatividad, que logró geometrizar el tiempo pero no liberarlo del Nirvana en que ha sido enclaustrado por el mecanicismo, despojándolo de su sentido creativo como propuso Einstein sin lograrlo, ocultando en un determinismo tan cerrado como el de Newton las verdaderas leyes de evolución del universo y de la vida”; por estas razones, sus  esfuerzos se orientan a la unificación del tiempo con los demás parámetros del universo en un acople activo con el espacio y la energía en una dimensión espaciotemporal dinámica asociada a los fenómenos irreversibles de la naturaleza. Sus aportes a la ciencia contemporánea se centran principalmente en la Termodinámica — ciencia matemáticamente rigurosa iniciada en 1811 por Jean Fourier basada en el tratamiento teórico de la propagación del calor en los sólidos — que con su concepto de entropía describe la irreversibilidad de los procesos de la naturaleza o como él los llamó parafraseando a Eddington: “aquellos procesos que definen la flecha del tiempo". Esta ciencia añade otro componente además de la gravitación: la radiación; de modo que para Prigogine “las grandes líneas de la historia del universo están constituidas por un equilibrio dinámico entre la materia y la radiación, en que la gravedad y la termodinámica interaccionan en los procesos entrópicos y neguentropicos de la materia y la energía definiendo una clara dirección evolutiva del universo”.
 “Aunque la termodinámica es un campo de la ciencia donde se manifiesta con claridad la   irreversible temporalidad de los procesos de la naturaleza, por muchos años estos  fueron temas que no tenían interés entre los científicos, pues se consideraba una rama de la ciencia de aplicación limitada a máquinas de vapor que no requería más desarrollo; por su parte, la irreversibilidad del tiempo ha sido hasta hoy una idea poco aceptada en el mundo de la física: la mecánica clásica, la relativista y aún la cuántica son teorías que describen un tiempo reversible y estas dos últimas –– aunque poco compatibles –– se consideran exitosas y están de acuerdo con los hechos observados; no obstante, debido a la reversibilidad del tiempo que plantean sus principios, no dan cabida a los procesos constructivos de la naturaleza, dejando sin un lugar en las leyes del universo a la evolución del mundo físico y a la vida, por lo que para ir más allá de Newton, de Einstein y de Schrödinger será necesario desarrollar nuevas herramientas matemáticas y teorías unificadoras que permitan superar las incongruencias de la Mecánica Cuántica y la Relatividad aunque necesariamente deben ser formuladas a partir de ellas, incorporándoles un concepto evolutivo que incluya la asimetría y dinámica del tiempo, dando cabida a los principios reales de la naturaleza que  condicionan la evolución del mundo físico y de la vida en que unidad y diversidad, reversibilidad e irreversibilidad se unen en las diversas escalas conformando un todo indivisible en un universo en permanente evolución, cuya tendencia es opuesta a la entropía”.
Por más de un siglo la termodinámica centró sus estudios en los sistemas que evolucionan hacia el equilibrio, generalizando sus leyes a todo el mundo físico; en ellos  pareciera que el tiempo no transcurre pues pasado y futuro son indistinguibles, lo que hace al sistema simétrico, reversible, cerrado y sin cambios en su entorno; por el contrario, en los sistemas alejados del equilibrio la situación es radicalmente distinta, pues la materia interacciona con la energía haciendo los sistemas inestables, permitiendo la irrupción de fenómenos de auto-organización y comunicación, en que la materia adopta configuraciones dinámicas de creciente complejidad estructural y topológica, estados que  a diferencia de lo descrito por la ciencia clásica, la relatividad y la misma mecánica cuántica, no son simétricos en el tiempo, puesto que en esta neguentropía característica de la naturaleza que se opone a la degradación y al equilibrio, se irán formando nuevas estructuras que expresan una clara dirección temporal, con una organización de la materia y de la energía que  –– remontando la flecha del tiempo ––  se opone a la entropía, haciendo esos procesos evolutivos e irreversibles”.

Las estructuras coherentes de los sistemas auto-organizados, enfatizan el carácter creativo y estructurante del tiempo en los procesos de la naturaleza, determinando la evolución de los principios de la materia expresada por Prigogine, que en interacción con la energía del medio se produce una asimetría de creciente complejidad en todos los planos de la naturaleza — tanto en los seres vivos como en la materia — por lo que dichos principios no pueden preexistir y deben evolucionar también en el tiempo, lo que las teorías deben describir modelizando la evolución de la complejidad a nivel de los principios que rigen la materia.
En 1972 el doctor Prigogine pone de manifiesto por primera vez en la ciencia la existencia de conexiones genéticas en ciertas estructuras coherentes que se forman en la materia en presencia de energía mediante el análisis de los "Torbellinos de Bernard" –– corrientes de convección de estructura hexagonal que se forman en un fluido en desequilibrio térmico –– que muestran como grandes números de moléculas se auto-organizan y cooperan ordenándose geométricamente en medio de las posibilidades del desequilibrio que las genera, desde donde obtienen su energía. El estudio y comprensión de estos fenómenos ha permitido sentar las bases de una serie de reflexiones acerca de la  irreversibilidad y la complejidad en el mundo físico señalando que más allá que las leyes del mundo microscópico enunciadas por la mecánica cuántica, junto a los procesos entrópicos existen estados de la materia en que grandes números de moléculas  interaccionan con la energía formando estructuras que se ordenan y auto organizan siguiendo patrones coherentes a nivel de micro y macro procesos; dichas estructuras o dominos (del francés: domains) no son constantes ni triviales; son dinámicos, fluctuantes, no obedecen a leyes inmutables y evolucionan en el tiempo pues poseen la capacidad de ordenarse y equilibrarse tanto a nuevas condiciones externas como internas, presentando procesos de intercambios de materia, de energía e información tanto entre sus partes como con el medio en que interactúan, determinando procesos inéditos de gran trascendencia en la evolución del mundo físico. 

De este modo, la interacción de la materia y la energía induce la formación de procesos locales auto-organizados que tienen la propiedad de generar nuevas entidades estructurales y funcionales a partir de las  existentes que serán sometidas a prueba por la entropía, de modo que solo se preservarán aquellas que presenten condiciones ventajosas en el empleo de la materia y la energía disponibles en ese medio. Este tipo de comportamiento evolutivo hasta ahora solo se le asigna a los seres vivos; no obstante, los sistemas dinámicos se encuentran generalizados en todos los procesos de la naturaleza presentando propiedad de auto organización, constituyendo sistemas coherentes que se adaptan tanto a condiciones del medio como a sus propias dinámicas internas generando complejidad, por lo que la presencia de conflictos — como turbulencias, resonancias, inestabilidades o el azar — es la oportunidad de la materia para evolucionar hacia un orden más  dinámico, de una mayor complejidad y eficiencia.
Estas afirmaciones –– de gran implicancia en las actuales leyes físicas, especialmente en Termodinámica y Cosmología  –– ponen de manifiesto que cuando interacciona la materia y la energía los sistemas de la naturaleza evolucionan generando un nuevo orden y una disminución de la entropía y no desorden y aumento de entropía como afirma sir Arthur Eddington, quien habrá aludido a hipotéticos e inexistentes puntos del universo en que una materia abstracta — aislada de la energía — de acuerdo a las conocidas leyes de emisión de radiación, tendería a llegar a un estado de equilibrio térmico con el medio, escenario que no representa la realidad en un mundo en que la materia y la energía interaccionan inseparablemente en  todos los confines del universo.


La revisión de los conceptos de materia y energía: la Mecánica Cuántico-Ondulatoria.

En 1925 Werner Heisenberg — a la edad de 24 años — se valió de la dualidad onda-partícula para desarrollar un modelo matricial que permitió por primera vez predecir de forma teórica los resultados  observados en experimentos con electrones: nacía formalmente la mecánica cuántica. Al año siguiente, Erwin Schrödinger reformularía el modelo cuántico de un modo substancialmente nuevo conocido como mecánica ondulatoria, describiendo una ecuación que permite explicar cómo opera un sistema físico como el electrón a lo largo del tiempo; para enunciarla, abandona la idea de que el electrón es una partícula, describiéndolo íntegramente por sus propiedades ondulatorias, lo que es matemáticamente más sencillo y físicamente más coherente pues corresponde a la naturaleza del electrón observada experimentalmente. El resultado de esa ecuación — denominada “función de onda”— es un sutileza matemática que permite describir enteramente al electrón por sus propiedades ondulatorias sin representar ninguna magnitud o posición en particular sino todos los valores posibles, definiendo en forma probabilística sus diferentes magnitudes físicas observables; esto implica que la función de onda no determina el estado exacto en que estará un electrón cuando realicemos una observación como podría esperarse en la mecánica de Newton o en la relatividad de Einstein, sino todos los estados posibles descritos por la ecuación, pero como en toda función estadística, si el valor de la velocidad se determina con precisión, el valor de la posición será muy difuso y viceversa, demostrando la imposibilidad de todo conocimiento determinista de valores conjugados en la materia microscópica, aspecto que solo permite hacer predicciones probabilísticas con un nivel de indeterminación o error intrínseco que es independiente de nuestros aparatos de medida, de modo que en la función de onda de Schrödinger subsisten las relaciones de indeterminación enunciadas por Heisemberg, lo que a menudo se interpreta como un problema de la teoría para conocer el valor de los  fenómenos físicos asociados a una partícula.

Sin embargo, estas relaciones no implican que no podremos conocer con la precisión que queramos la velocidad o la posición de una partícula en un momento determinado, lo que podemos hacer con gran precisión; estas solo expresan que no es posible conocer simultáneamente y con la precisión que queramos la posición de una partícula y su momento angular; es decir, no podremos conocer con precisión pares de valores conjugados, pues la indeterminación se expresa entre magnitudes relacionadas como posición y velocidad, energía y tiempo de modo que cuanto mayor sea la precisión con que se mida una variable, menor será la precisión con que conoceremos la otra y viceversa, por lo que si diseñamos un experimento para medir con gran precisión la posición de un electrón, el valor medido de su velocidad será bastante impreciso debido a la naturaleza discreta de la energía y el carácter ondulatorio de su propagación, de modo que la incertidumbre es una conducta intrínseca de la materia que no depende del proceso de observación.

De este modo las relaciones de indeterminación manifiestan que la materia microscópica posee un comportamiento estadístico que no admite predicciones deterministas del estado de un sistema u onda-partícula en un momento específico, puesto que sus valores conjugados estarán indeterminados en la función de onda que los describe, tomando todos los valores de esa función en el tiempo; lo que sí existe en mecánica cuántica  —aspecto que ha introducido controversias en la interpretación de las relaciones de indeterminación —  en que se ha intentado establecer que la incertidumbre de la teoría estaría determinada por deficiencias de instrumentos y métodos de medida, sin aceptar el hecho que el comportamiento ondulatorio de la materia impone limitantes físicas objetivas a la precisión con que podemos medir valores conjugados, que además de estar indeterminados en la función de onda, el proceso mismo de medición y hasta la visualización de una partícula subatómica alterarán el valor de sus parámetros y por tanto la validez de la medición, de modo que si requerimos conocer con precisión la velocidad de una partícula subatómica, la información simultanea acerca de su posición tendrá un límite de error tal que la imprecisión conjunta de las magnitudes asociadas posee un valor determinado por la constante de Planck, aspectos que han generado conflictos de interpretación por no reconocer el hecho incuestionable que los valores probabilísticos  poseen un nivel de indeterminación que no depende de la imperfección en los métodos de medida, sino que es una propiedad intrínseca de la materia; es decir, es un fenómeno físico concreto de existencia real en los estados cuánticos del mundo subatómico, que manifiestan una incertidumbre propia de su naturaleza ondulatoria que los hace intrínsecamente no reductibles a leyes deterministas. En palabras de Heisenberg: “el mundo subatómico tiene su propia métrica, de modo que las partículas se comportan de una forma que no es posible describir con las nociones que tenemos de ‘anterior’, ‘posterior’, ‘posición’ o ‘existencia’ de modo que cualesquiera sean los conceptos que se han formado en el pasado en razón del intercambio de información entre nosotros y el mundo físico, la verdad es que no sabemos hasta dónde pueden ayudarnos a encontrar nuestro camino en el mundo subatómico pues su significado no está definido sino estadísticamente.

Según Max Born, uno de los primeros científicos en unirse a la teoría cuántica “como consecuencia de las propiedades ondulatorias de la materia microscópica y la indeterminación propia de esos fenómenos, la mecánica cuántica debe ser entendida como una probabilidad estadística sin explicación causal alguna”, argumento que Einstein se rehusó a aceptar perturbado ante la idea de que las trayectorias y posiciones en el espacio-tiempo no podrían ser determinadas, objetando que las probabilidades cuánticas reflejaran los hechos subyacentes en el mundo microscópico afirmando que las relaciones de indeterminación se debían a errores en la teoría y no a fenómenos de indeterminación propios de la materia, opiniones que reflejan una concepción abiertamente determinista que lo alejaron no solo de la mecánica cuántica, sino de una serie de conceptos dinámicos de la física moderna que hubieran llevado sus teorías más allá de sus limitaciones newtonianas en la descripción de la naturaleza real, discrepancias epistemológicas que le imposibilitaron sumarse a la cimentación de la más grande edificación intelectual de la humanidad que el mismo contribuyó a fundar, confinándose por años en un vano intento de unificación de una relatividad determinista y abstracta con una teoría probabilística sólidamente fundada en observables, teoría que nunca comprendió y que no admite su unificación con una teoría clásica llena de infinitudes,  en vez de unificar sus ideas con los avances de la cuántica, por lo que además de haber restado a uno de los mejores científicos de su época a uno de los desarrollos más trascendentes para el futuro de la humanidad, hemos heredado una relatividad determinista, despojada de los conceptos dinámicos que surgen naturalmente de la transformación de Lorentz que pudieron transformarla en una revolución probabilística del conocimiento científico. Por décadas, los mejores científicos del mundo debatieron en diversos congresos de física las objeciones de Einstein cada vez más alejadas de la realidad acerca de las Relaciones de indeterminación de Heisemberg, en vez de recoger las trascendentes ideas del tiempo de Aristóteles asociado a la dinámica del universo — “formando parte integral de la explicación que a priori puede darse de la physis” — en que Einstein utiliza los desarrollos de Riemann y su implicancia en los parámetros del mundo físico desarrollados por Minkowsky solamente para establecer una cosmología geométrica, abstracta y determinista y no para modelizar la dinámica del universo que hubiera permitido unificar el tiempo con los procesos evolutivos de la materia, de la energía y de la vida “como un marco de referencia subyacente en la naturaleza que lo contiene y por tanto, la base del movimiento del universo”, visión espacio-temporal dinámica de Aristóteles, que a excepción de los importantes aportes de Prigogine y sus estructuras disipativas, está aún proscrita en la física pese a haber sido formulada hace 25 siglos, creando un gran vacío en la  interpretación de la realidad.

La incertidumbre incorporada a la estructura de la materia tienen una clara expresión en el colapso de la función de onda, fenómeno en que una perturbación en una región de un sistema físico ocasiona un cambio global en todos los parámetros de su función, los que varían instantáneamente no sólo en la región próxima sino en cualquier otra por distante que esté. Estas variaciones son normales incluso en física clásica de modo que un cambio de estado en una región distante como resultado de una intervención en algún punto debe producir cambios en el totalidad del sistema, reflejando el hecho de que sus partes están relacionadas, por tanto una variación puntual de la información debe producir variaciones del sistema en su conjunto incluyendo sus partes distantes. Sin embargo en teoría cuántica el colapso de la función de onda ocurre en lugares distantes no conectados en forma instantánea, simultaneidad que se considera un efecto cuántico no-local que violaría el principio de la velocidad de la luz pues se produce instantáneamente, aspecto que obliga a integrar los conceptos de Maxwell al mundo subatómico y aceptar que el colapso de la función de onda así como la dualidad onda-partícula y los fenómenos de interferencia y simultaneidad serán comprendidos e integrados a las teorías solo cuando se defina el entorno de las partícula subatómicas y el tiempo como magnitudes dinámicas asociadas a la propagación de un campo, conceptos que permitirán no caer en las obscuras acciones instantáneas a distancia de Newton, integrándolos en una teoría de campos que los haga coherentes con las leyes de la física; mientras tanto, deberíamos investigar y analizar los observables para obtener pistas objetivas acerca de los fenómenos cuánticos, cuyas elucubraciones ocultan el hecho de que hasta ahora hemos pretendido integrarlos con el fórceps de los prejuicios deterministas intentando incorporarlos al marco de una teoría que ha intentado por casi un siglo reducir los fenómenos de la naturaleza microscópica a las teorías clásicas, en vez de describir la complejidad de los sucesos de la naturaleza con nuevas y  dinámicas representaciones que presentan los fenómenos cuánticos, que pugnan por la transformación de los viejos conceptos relativistas acerca del tiempo, del espacio y de la energía, dejando de objetar los efectos cuánticos en la dimensión temporal, que obligan a incluir la cuantización del tiempo en sistemas complejos con unidades discretas de Planck y memorias de flujos de información de un tiempo irreversible, proveyendo un punto de partida natural a diferentes áreas de la física en que la cuantización del tiempo es importante, permitiendo comprender e incorporar también la gravedad, la interferencia, la comunicación y computación cuánticas no a una teoría geométrica abstracta y determinista del universo sino a su dinámica y evolución a través de una teoría cuántica de campos consistente con los observables. 

Las incompatibilidades que manifiestan las teorías clásicas en la comprensión de la materia subatómica señalada por la mecánica cuántica y las relaciones de indeterminación de Heisemberg, reafirman el hecho de que la materia posee un comportamiento estadístico vinculado a una incertidumbre propia de su carácter ondulatorio, aspecto que no permite hacer predicciones deterministas pues sus entes conforman un todo entrelazado que pone fin a la objetividad del mundo clásico que contrariamente a la opinión de Einstein, implican que la función de onda no puede representar el estado exacto en que estará el electrón cuando se realiza una observación como podría esperarse en la mecánica de Newton o en la relatividad sino todos los estados que permiten las relaciones de indeterminación, conceptos que lejos de constituir un vacío del conocimiento, indican que habitamos un mundo complejo y compartimos sus leyes estadísticas, evolutivas y creadoras de futuro, comprobando que no existe una totalidad indivisible, sino que estamos inmersos en un universo estadístico, azaroso y en evolución que nos muestra una vez más que tomar partes del todo definiéndolo fuera de su medio es imposible sin cometer grandes errores.

En ese sentido, tanto en la mecánica de Newton como la de Einstein el principio de causalidad establece que una causa en determinadas circunstancias produce siempre el mismo efecto posible que es el  previsto por la teoría, lo que desde el filósofo escocés Hume — que objeta este principio — deja de ser cierto pues “en realidad, no podemos afirmar que un acontecimiento causa siempre otro argumento que desafía la certeza de los cartesianos y otros racionalistas, terminando con los dogmáticos sueños del determinismo; esa misma perspectiva es también válida en mecánica cuántica, según la cual las mismas causas pueden producir efectos diferentes aleatoriamente; es decir, surge el factor estadístico o indeterminación propia de la materia y la energía que rompe la rígida cadena de causalidad de la mecánica de Newton y Einstein con mecanismos nuevos e irreversibles que constituyen la base física de la evolución tanto del universo inmaterial como de los  seres vivos, en el que la presencia de conflictos –– más que una dificultad –– es una oportunidad de evolucionar hacia un nuevo orden más complejo y dinámico.

Todos estos conceptos probabilísticos relegados por años en la ciencia que –– contrariamente a como los entendía Einstein asemejándolos al Nihilismo — estructuran una visión evolutiva de la física contemporánea, constituyen el fin de las certidumbres de una ciencia que vinculó por siglos el conocimiento científico a la falsa certeza de que con condiciones iniciales "apropiadas" es posible la previsibilidad y determinación del conocimiento del futuro, en que la novedad, las mutaciones, la actividad espontánea y azarosa en la naturaleza son conductas sin sentido en la materia que están  restringidas solo a los seres vivos; sin embargo, hoy sabemos que no es posible determinar en forma causal los caminos de la naturaleza pues la incertidumbre estadística y hasta accidental de su comportamiento es irreductible en los diversos estados en que interaccionan la materia y la energía, de modo que pequeñas y hasta accidentales fluctuaciones o resonancias pueden invadir un sistema engendrando nuevas estructuras, nuevos regímenes de funcionamiento y/o nuevos niveles de energía, actividad que caracteriza a toda la materia y no solamente a los seres vivos. Estas consideraciones obligan a aceptar el hecho que las leyes de la naturaleza no son deterministas, de modo que las predicciones que podemos hacer del futuro constituyen una intrincada mezcla de determinismo, probabilidades y azar. El futuro macroscópico así entendido es tan impredecible como lo muestra la mecánica cuántica, que no está en absoluto determinando sino sometido a fluctuaciones, bifurcaciones, amplificaciones, resonancias y a la retroalimentación de la materia alejada del equilibrio que conforma el mundo real que solo puede describirse en forma estadística, reafirmando el carácter abierto y creativo de un universo que nos muestran las partículas elementales, que no se degrada en procesos entrópicos ni sufre una lenta muerte térmica sino que incrementa su  complejidad con nuevas estructuras que emergen en las galaxias, estrellas, planetas y sistemas biológicos en toda la naturaleza, en que el aparente desorden no es sinónimo de caos y de entropía, sino un potencial de reorganización y de creatividad que permite a un universo en evolución y no en degradación incrementar su complejidad y remontar la flecha del tiempo.


La disyuntiva de unión o separación  de la Mecánica Cuántica  y la Relatividad General.

La  Relatividad General y la Mecánica Cuántica han sido por casi un siglo dos teorías exitosas en sus ámbitos y constituyen la base de grandes avances de la humanidad tanto en  ciencia como tecnología, medicina y economía. No obstante, existen entre ellas importantes inconsistencias lógicas y matemáticas pues ambas teorías han fragmentado la realidad en diversas escalas y mientras la relatividad describe partículas clásicas desplazándose materialmente en un espacio-tiempo estático, la cuántica las describe propagándose en forma ondulatoria e inmaterial con un comportamiento dinámico y azaroso sin posición definida en el espacio y aunque no hay observaciones que internamente contradigan sus principios, sabemos que es necesario integrarlas en una teoría que esté en armonía con una naturaleza que no se fragmenta, sino que es unitaria e inseparable en todas las escalas en que podamos dividir la realidad.

Actualmente muchos científicos piensan que el problema más trascendente de la física contemporánea es enlazar la Relatividad General –– que describe la estructura e interacción gravitacional a nivel cosmológico –– con la Mecánica Cuántica, que hasta hoy  explica las otras tres fuerzas fundamentales que actúan a nivel atómico, puesto que su conciliación permitiría la unificación de la gravedad a las demás fuerzas de la naturaleza.

Hasta la fecha todos los modelos cosmológicos se han sustentado en las hipótesis de la Relatividad General como  marco de referencia para sus conclusiones; no obstante, han habido reacciones con la substrato-dependencia de la Relatividad y su inconsistencia con las teorías cuánticas; las objeciones más importantes son que además de poseer un status ontológico diferente, las teorías de Einstein se consideran solo proposiciones relacionales no intrínsecas de los efectos gravitatorios, en que la única información relevante que proporcionan es una correlación temporal entre acontecimientos distantes, de modo que sus conclusiones serían prescindibles y contradictorias con una descripción espacio-temporal dinámica del universo, por lo que esta se debiera incorporar solo como una cualidad geométrica complementaria de una teoría topológica substrato-dependiente, ideas que explicita Steven Weinberg en su clásico texto Gravitation and Cosmology; con él, debemos asumir que la naturaleza actúa en una dimensión espacio-temporal unitaria determinada por el tiempo propio de los eventos dinámicos e irreversibles de la naturaleza y no debería representar exigencias salvo las topológicas para adoptar determinados comportamientos físicos en diferentes escalas y de existir algún suceso causal que delimite su conducta, serían los condicionantes del mundo cuántico el fundamento material que determinarán las conductas estadísticas y la evolución de los procesos irreversibles en todos los niveles en que la materia interacciona con la energía de acuerdo al principio de equivalencia de Einstein, por lo que la teoría cuántica debería extenderse a todos los ámbitos de la física incorporada como un principio general de la naturaleza –– incluyendo el nivel cosmológico –– en que los conceptos relativistas y la transformación de Lorentz  serán solo un complemento topológico-relacional del espacio, el tiempo y la energía.

No obstante que la idea de un modelo cuántico desvinculado de la Relatividad General entusiasma a muchos, hay quienes piensan que solo se deben modificar sus propiedades clásicas de modo de representar el espacio-tiempo de forma estadística con una aproximación que le agregue propiedades dinámico-evolutivas que eliminen su carácter determinista, que es el punto de vista de importantes físicos como Roger Penrose, Stephens Hawkins e Ilya Prigogine y aunque ambas opciones justifican su validación empírica, las condiciones para que la gravedad cuántica pueda ser estudiada experimentalmente han sido hasta hoy inaccesibles debido a las enormes energías que se requieren y el único centro que ha construido equipos adecuados para esas investigaciones, el CERN en Ginebra Suiza en que ha entrado en operación The Large Hadrón Collider (LHC) y se esperan obtener importantes novedades en el futuro, aunque pasarán años antes de conseguir resultados confiables; no obstante, aunque sus conclusiones puedan ser de inapreciable valor para una comprensión profunda del confinamiento de los quarks en el núcleo atómico y si bien podrán entregarán evidencias del comportamiento de la materia necesarias para la verificación de una serie de hipótesis del modelo estándar — como la existencia del bosón de Higgs — las investigaciones empíricas no proporcionarán información acerca de la evolución de los procesos transitivos relacionados con las estructuras iniciales del universo, que son de gran importancia para la comprensión de la interacción gravitatoria y del momento angular de las estructuras cosmológicas, aspectos que reflejan la carencia de una teoría cinético-evolutiva que permita esclarecer el origen de estas importantes fuerzas de la naturaleza cuyo origen cuántico fue excluido de su estudio por décadas, cediéndose ese terreno a la Relatividad General que con su visión clásica y determinista del mundo microscópico, no logra explicar los fenómenos atómicos asociados a la gravitación ni determinar una teoría coherente de formación de estructuras cosmológicas, ámbitos eminentemente cuánticos en que la relatividad general ha demostrado carecer absolutamente de competencia


Eros y Thanatos.

En la naturaleza existen dos tendencias opuestas, que han sido representadas en la mitología griega por Eros y Thanatos: mientras Eros construye, Thanatos actúa cumpliendo el obscuro destino que las Moiras — la personificación del Fatum, fatalidad o destino — dictaban. Freud utilizó también estas legendarias figuras mitológicas considerando que la dualidad de la naturaleza humana surge de dos instintos contrapuestos: mientras Eros es el instinto de la vida, del amor y la sexualidad en su amplio sentido como impulsión hacia la reproducción y la vida, Thanatos es el instinto de destrucción, de repulsión y de muerte; uno lleva a la preservación y a la evolución de la especie, el otro hacia su destrucción. Así también Prigogine entiende el universo afirmando que “mientras la materia inanimada tiende naturalmente a distribuirse en el espacio en busca del menor nivel posible de equilibrio, estabilidad, dispersión y certidumbre — generando homogeneidad, desorden y aumento de la entropía— la energía siempre presente en el universo genera inestabilidad y la materia se auto-organiza configurando estructuras cada vez más complejas que se oponen progresivamente a las tendencias entrópicas, exhibiendo procesos constructivos caracterizados por una creciente organización que posibilita la interacción y comunicación entre sus partes, produciéndose intercambios de energía, de materia e información, permitiendo generar nuevas estructuras que presentan un aumento en su complejidad y una disminución de su entropía respecto al medio”; en este sentido, el conflicto se plantea entre la tendencia al desorden que presenta  la materia — entendida como un sistema abierto a las interferencias del medio y la energía — de modo que cuando aparece la tendencia al desorden y al equilibrio, la inestabilidad de la materia y la energía generan procesos de auto organización que pueden llevar al sistema físico tanto a un estado reversible de menor energía y desorden o a que se instaure una nueva organización que deberá tener la capacidad de subsistir, oponiéndose tanto a las condiciones entrópicas del medio como a sus propias dinámicas internas que tienden al equilibrio y la degradación.

El término auto-organización fue introducido por el filósofo y matemático británico Immanuel Kant en La Crítica del Juicio, expresando que “la materia alejada del equilibrio se auto-organiza en una dinámica de acoplamiento estructural conservando sus límites en una producción de complejidad, de modo que cualquier cambio en la energía del medio llevará a un nuevo estado de actividad de la materia cuando sus interacciones adquieren un carácter recurrente por un tiempo significativo”.

La subsistencia de los sistemas auto organizados en la naturaleza se debe a un tipo de equilibrio dinámico que surge en la materia a partir del intercambio de energía e información entre sus elementos y el medio, en que grandes grupos de moléculas se ordenan y organizan conformando estructuras coherentes que perdurarán solo si poseen la facultad otorgada por las relaciones entre sus partes de preservarse ante perturbaciones externas si estas no exceden de ciertos límites, de lo contrario se destruirán. Esta particularidad — considerada la característica más importante de los sistemas dinámicos — hace indispensable una nueva visión de la realidad que considere el carácter no lineal del comportamiento de la materia y el sentido evolutivo en la organización de una naturaleza en que la entropía no determina por si misma el futuro de un sistema, sino que constituye una presión de selección para reciclar aquellas estructuras que no representen la mejor de las probabilidades, incrementando las oportunidades y descartando las debilidades en un medio que consigue apartarse del determinismo y la reversibilidad con estructuras originales creadas a partir de las existentes, que para preservarse deben poseer la facultad de ser cada vez más eficientes ante las presiones entrópicas del medio, condición irreversible que determinará la dirección de la flecha del tiempo definida por los procesos evolutivos de la naturaleza en que se generan nuevas organizaciones, en que la respuesta que subsista en el medio será la mejor opción de las variables disponibles, de modo que parafraseando a Leibniz, podamos afirmar que nuestro mundo evoluciona sin leyes preexistentes, sino cada vez como “el mejor de los mundos posibles.”

Al igual que las letras de una palabra no definen su significado, las moléculas de un compuesto, de una célula o de un grupo coherente de ellas no determinan por si mismas sus cualidades; lo esencial no es solo lo cuantitativo sino la organización que vincula sus partes constituyendo estructuras dinámicas que rigen su actividad y jerarquizan su información, siendo el nivel de su organización basado en complejas relaciones de comunicación, equilibrio e interacción entre sus partes el que define su dinámica interna y su capacidad de adaptación e interacción con el medio. Estos patrones de organización y comunicación en que surgen propiedades nuevas en la materia, que pueden ser descritas como sistemas complejos que unifican tanto la información como las respuestas dinámicas de sus constituyentes ante el medio, características que nos permiten describir su comportamiento con el concepto de red asociado a los sistemas dinámicos derivado de las complejas relaciones que su disposición hace surgir entre sus partes, definiendo niveles de acción e información con el medio en que interacciona con la energía, lo que puede conducirlos hacia estados estables y reversibles, hacia condiciones dinámicas e irreversibles e incluso hacia condiciones reversibles de alta energía descritas como caóticas, aunque dichos estados en un sistema abierto en presencia de energía son fuente de orden y organización y no de desorden, pues la materia en presencia de energía buscará siempre un estado coherente de equilibrio dinámico e irreversible con su medio.
De este modo, los sistemas alejados del equilibrio aportan un descubrimiento de gran consecuencia para la física: el azar introducido por la mecánica cuántica no se limita a las partículas elementales, sino que se extiende en forma unitaria a las propiedades de la materia macroscópica; Prigogine afirma que “se trata de una generalización de las relaciones de Indeterminación de Heisemberg a la materia macroscópica, en que más allá de cierto umbral de complejidad, los sistemas siguen rumbos imprevisibles, perdiendo sus condiciones iniciales, tendiendo a reordenarse constituyendo  estados irreversibles de mayor energía que sus precedentes, en que esta predomina sobre la materia”. Estas afirmaciones abren nuevos caminos en la comprensión de la naturaleza y muestran la paradoja que si bien la materia macroscópica aislada posee una tendencia natural a progresar estadísticamente hacia condiciones de mayor entropía y equilibrio, existe también en la naturaleza la tendencia opuesta, en que  la materia en presencia de energía forma bucles de irreversibilidad, presentando condiciones de mayor organización que sus estados precedentes, de modo que en la evolución de los procesos de la naturaleza si bien se cumplen los principios fundamentales de la termodinámica, lo hacen de una forma hasta ahora no advertida, de modo que pueden conformarse tanto sistemas cerrados que evolucionan hacia el equilibrio o estructuras neguentropicas complejas e irreversibles, pero también hacia estados reversibles de alta energía denominado caóticos en que la entropía local del sistema disminuye y contrariamente a lo que afirma el Segundo principio de la Termodinámica, son fuente de creación de complejidad y no de degradación, lo que se observa en todos los ámbitos del universo no solo en los organismos vivos, en el que los conflictos de la materia con la energía abren posibilidades de evolucionar hacia un nuevo orden más complejo y dinámico.
Desde el estudio de la inestabilidad de Bernard sabemos que a niveles macroscópicos, en presencia de energía la materia es inestable, pudiendo engendrar nuevos estados que se desarrollan tomando un curso aleatorio e imprevisible denominado caótico o generar procesos coherentes de mayor complejidad; de este modo, no es que se contradiga el Segundo principio de la Termodinámica — la ley del crecimiento irreversible de la entropía  formulada por Rudolf Clausius en 1865 — en un sistema aislado esta aumenta con el tiempo, pero estos sistemas son ideales y no representan a la naturaleza pues en el universo no existen puntos aislados de la energía que en forma de radiación electromagnética, gravedad, momento angular y carga eléctrica inunda todo el universo; aun así, explica Penrose: ”un sistema aislado que sufre una perturbación puede no retornar a su equilibrio inicial y amplificar sus fluctuaciones, provocando una polarización que hará posible nuevos estados de evolución y organización de la materia”; estados que no se oponen a la entropía sino que la superan generando cambios complejos, evolutivos e irreversibles que subsisten en un tipo de equilibrio dinámico con su medio denominado homeostasis.
De acuerdo con estas ideas, los desarrollos teóricos de Prigogine manifiestan que en presencia de energía, la materia inanimada constituye sistemas complejos auto-organizados capaces de retroalimentarse oponiéndose a la tendencia natural de degradación del cosmos expresada por la entropía, que tiene la capacidad de degradar la materia solo en estados  aislados de bajo nivel de organización y complejidad aunque en el mundo real,  todos los sistemas de la naturaleza interactúan con la energía que inunda el universo, de modo que los seres vivos no son los únicos sistemas dinámicos de la naturaleza capaces de acumular neguentropía e ir de la simplicidad a la complejidad, de la dispersión a la concentración, de la improbabilidad a la probabilidad y a la creatividad, en que la materia se auto-organiza logrando elevarse por sobre las tendencias negativas de la entropía adquiriendo estados dinámicos coherentes de mayor complejidad y menor incertidumbre que el precedente a partir de la energía del medio, subsistiendo a las presiones de la entropía, estado que por oposición denominamos neguentropía.
La neguentropía puede definirse como una propensión inherente de la materia a constituir organizaciones coherentes en presencia de energía, lo que no se contrapone al segundo principio de la termodinámica sino que lo complementa, revelando que en la materia organizada prevalece un concepto de eficiencia que permite la preservación de nuevas estructuras, en un medio cambiante y con recursos limitados en que todo lo que no se organice en forma coherente logrando un equilibrio con la energía y no presente ventajas frente a las presiones del medio tenderá a degradarse, estado que empleando la energía disponible, estructura la materia en forma más eficiente que cierto umbral definido por la entropía del medio, originando un progresivo incremento en los niveles de complejidad y organización de la materia, definiendo una clara dirección evolutiva de la   naturaleza, reduciendo la incertidumbre de los sistemas abiertos que Prigogine define como “estructuras disipativas”, que se encuentran generalizadas en todos los ámbitos de la naturaleza incluyendo a los seres vivos.
La neguentropía de las estructuras disipativas no debe definirse por antítesis como un concepto que describe conductas de la materia que se oponen a la entropía sino como un mecanismo constructivo de la naturaleza que incluye a la entropía no como una tendencia absoluta, sino determinando un umbral de eficiencia en un medio que evoluciona hacia la complejidad. De este modo, así como la entropía establece que la materia aislada tiende a degradarse hacia un estado indiferenciado de equilibro con el medio, la neguentropía expresa una propensión natural de la materia en presencia de energía de producir un tipo de auto-organización que tiende a un equilibrio dinámico y a un incremento de la complejidad, originando estructuras caracterizadas por el incremento de la información, de comunicación y de adaptación con su medio; esto  crea en la naturaleza una tendencia constructiva, de modo que la materia tiende a evolucionar en su conjunto hacia parámetros cada vez más complejos y aunque el incremento de complejidad no viola el Primer principio de la Termodinámica pues dichos estados se obtienen disipando energía, las estructuras disipativas determinan con el tiempo un universo de creciente complejidad, organización e información en una naturaleza que — interactuando con la energía — evoluciona cuantitativa y cualitativamente hacia estados cada vez más coherentes,  de modo que la entropía — lejos de ser un mecanismo negativo de degradación — actúa en la naturaleza seleccionando aquellas organizaciones de la materia que logran sobrepasar un creciente nivel de eficiencia determinado por el nivel de  evolución del medio.
Esto no objeta la validez del Segundo principio de la Termodinámica sino que lo separa del rol auto-otorgado de axioma cosmológico que señala una falsa tendencia de un universo reversible que se aproxima a la muerte térmica, impugnando la clasificación misma de dichos estados como categorías desde el punto de vista epistemológico puesto que más allá de cierto umbral de energía, los estados reversibles se hacen caóticos, aspectos que resaltan tanto la necesidad de añadir en su descripción una serie de factores topológicos, temporales y energéticos para representar el intercambio de materia y de energía así como la necesidad lógica de encontrar nuevos términos para describirlos, puesto que los actuales carecen de sentido y son a fin de cuentas deterministas y contradictorios con la evolución de los fenómenos de la naturaleza, señalando la muerte térmica de un universo que evoluciona irreversiblemente en el tiempo, acrecentando  su complejidad.
Esto no afirma que haya solo una sola dimensión temporal en el universo, sino que la materia y la energía indisolublemente unidas conforman un todo que muestra un comportamiento estadístico y unitario que genera una conducta coherente y evolutiva y puede asegurarse — si hablamos del tiempo propio que determina cada evento del universo que desde Einstein reconocemos en la ciencia — este espacio-tiempo tetra-dimensional dinámico debe constituir el universo de sucesos en todas las dimensiones que la materia se expresa en cada evento de la naturaleza en que se manifiesta el carácter indeterminado, estadístico y unitario de las diferentes escalas en que analizamos la naturaleza, haciendo necesario un nuevo paradigma relativista dinámico que describa los procesos evolutivos en que se modifica el espacio-tiempo, ampliándose los conceptos de relatividad a las propiedades topológicas de la interacción de la materia y la energía, aspectos en que el tiempo propio de cada proceso definirá la evolución temporal del sistema determinando  en su conjunto una dirección irreversible de la flecha del tiempo.
Al igual que la afirmación de que en la naturaleza real no hay posibilidad de encontrar sistemas aislados que evolucionan hacia el equilibrio como propone la entropía, puesto que todo el universo se halla inmerso en un proceso radiativo que define su tamaño y velocidad de expansión, en que no hay un punto en que no haya energía y movimiento, por la misma razón no podemos hablar de materia aislada en el universo, reducción determinista de una realidad que muestra estar siempre en movimiento relativo interactuando con la energía que ––  en forma de radiación electromagnética y momento angular –– se encuentra inmerso nuestro universo en permanente expansión.
No obstante, la comprensión de la dualidad de los procesos macroscópicos reversibles de la naturaleza, en que la energía del medio permite formar bucles de irreversibilidad que  determinan con el tiempo una suma inédita de procesos globales de evolución, nos permite comprender que la indeterminación o incertidumbre que presenta el mundo cuántico no puede comprenderse al margen de los procesos del mundo macroscópico, puesto que conforman el fundamento material sobre el que se estructura la naturaleza, en que la entropía determina ya a nivel de micro procesos un creciente umbral de  eficiencia en las propiedades de la materia y la energía en las nuevas estructuras que se forman, comprendiendo que los desequilibrios de la materia en interacción con la energía articulan estructuras auto-organizadas que — seleccionadas por la eficiencia del medio — serán la mejor respuesta posible a las energías disponibles, determinando un creciente nivel de eficiencia al reciclar aquellas estructuras que no sobrepasen cierto umbral explicitado por la complejidad del medio; esto nos permite afirmar que también la entropía –– considerada no como un entidad externa omnipresente sino como una propiedad inherente de la materia que opera unitariamente –– constituye un umbral que evoluciona con la complejidad del medio, representando el quantum de organización interna que ha obtenido globalmente un sistema como conjunto en un medio que compite por recursos limitados que — a través de exigir soluciones cada vez más asertivas en la organización de la materia y en el empleo de la energía — logra disminuir progresivamente la cantidad de incertidumbre o entropía que prevalece en los sistemas físicos de la naturaleza; de este modo, el estado actual del universo refleja el tiempo propio de una historia cosmológica que ha evolucionado a partir de condiciones de desorden y elevada entropía, generando en forma irreversible las actuales estructuras de la naturaleza.
Esto impugna también la afirmación que solo un estado en equilibrio térmico es invariante ante la inversión temporal, pues los estados de alta energía denominados caóticos formados a partir de condiciones alejadas del equilibrio son también invariantes ante la inversión temporal, lo que hace posible comprender que puedan generarse estados irreversibles de mayor energía y menor entropía a partir de estados considerados hasta ahora como reversibles, aspectos que abre nuevos espacios en la comprensión del tiempo, la materia y la energía, en que los conceptos de reversibilidad e irreversibilidad de los fenómenos de la naturaleza pierden su sentido opositor, relativizándose dialécticamente y remontando la tendencia de la entropía para describir estados de evolución espacio-temporal reversibles descritos por la termodinámica estadística que pueden ser de mayor energía que sus estados precedentes, lo que además de exigirnos el empleo de nuevos términos para describir la reversibilidad, señala un aspecto Gestáltico en que la materia y la energía evolucionan en el tiempo con lazos neguentropicos cuyo futuro no es una fatalidad lineal sino un estado finito e indeterminado de evolución de la materia, retirando a la entropía del concepto de inevitable muerte térmica del universo para asignarle una función creadora, evolutiva e indicadora de la flecha del tiempo en los sistemas físicos de la naturaleza, focalizando nuestra búsqueda del origen del tiempo hacia los procesos de la naturaleza que definen su evolución, pues desde un punto de vista físico, esa definición ha estado erróneamente relacionada con la entropía comprendida como una tendencia a la degradación de un universo, en que  la naturaleza nos muestra que la materia se organiza evolucionando hacia estados de mayor complejidad y de menor incertidumbre, de modo que la entropía  asociada a la neguentropía –– considerada como el conjunto de eventos evolutivos de la naturaleza ––apuntan hacia el futuro como afirma sir Arthur Eddington, aunque el universo que describen es opuesto a la degradación que este afirma para el futuro.
Este modo de comprender el universo nos permite repensar los comportamientos macroscópicos, que vistos desde un prisma evolutivo, no están en contradicción con el comportamiento microscópico, puesto que la naturaleza como hoy la entiende el mundo cuántico necesita recorrer todos los caminos posibles para encontrar estadísticamente las configuraciones más adecuadas al medio y a sus procesos evolutivos. Esto no afirma que los estados reversibles no existan; al contrario, asevera que la física de la reversibilidad está plagada de bucles irreversibles, de modo que como las interferencias constructivas y destructivas en teoría ondulatoria, la naturaleza como  conjunto apunta en forma estadística hacia la irreversibilidad y la evolución del mundo físico expresada por la sumatoria de procesos constructivos y no a una tendencia a la degradación que señala la entropía. En su conferencia “El nacimiento del tiempo” (Roma 1987), Ilya Prigogine sostuvo: “La entropía contiene dos elementos dialécticos: un elemento creador de desorden pero también un elemento creador de orden; de este modo vemos que la inestabilidad, las fluctuaciones y la irreversibilidad desempeñan un papel constructivo en todos los niveles de la naturaleza: químico, ecológico, climatológico, biológico, molecular y finalmente cosmológico”.
En un mundo pródigo de energía en que la materia se auto-organiza logrando superar a la entropía con estructuras coherentes e irreversibles que prosperan en su medio, el tiempo revela su significado evolutivo materializando su unidad con la materia y la energía de un modo cada vez más complejo y eficiente, determinando a nivel macroscópico un sentido coherente con nuestra percepción subjetiva del tiempo, aunque a nivel microscópico solo en la reversibilidad del tiempo y el espacio, la materia y la energía del universo pueden abrir un espacio-tiempo virtual para hallar las configuraciones más adecuadas a las crecientes exigencias del medio, aspecto que no debe introducir contradicciones epistemológicas en las leyes de la naturaleza, sino generar un concepto de complementariedad y armonía de sus elementos en las diferentes escalas en que se estudie.

La paradoja de la reversibilidad.
Aunque mucho antes de Heisenberg  los británicos Hume y  Berkeley  habían hecho fuertes críticas al determinismo, el concepto de tiempo en la ciencia ha estado supeditado a una visión reversible sustentada en el Segundo principio de la Termodinámica y sobre todo en la visión de Einstein, para muchos el principal defensor del determinismo de Newton en la física contemporánea. Siguiendo ese enfoque, el matemático y filósofo británico Bertrand Russell afirma que “el orden temporal de los acontecimientos depende solo del observador, en que el concepto de tiempo sólo tiene significado en el marco de referencia en que este se encuentra, por lo que dividir el tiempo en pasado, presente y futuro carece de significado para las ciencias naturales”, de modo que para muchos científicos como el matemático Herman Weyl así como Russell y Einstein, la existencia del tiempo es relativa y existe un tiempo propio a cada evento de la naturaleza, de modo que nuestra percepción irreversible del tiempo es una construcción mental sin importancia para la ciencia.    
No obstante el carácter ilusorio del tiempo descrito por Einstein y sus seguidores sintetizando su visión subjetiva de la ciencia,  no podemos ignorar que los observables de la naturaleza objetan las aseveraciones de la relatividad y de entropía, pues son los procesos constructivos del universo y no una teoría la que nos indica que este tiene una historia irreversible; es decir, un tiempo con pasado, presente y futuro en que la irreversibilidad penetra en todas las dimensiones de la naturaleza desde el nivel cosmológico hasta el mundo cuántico, estableciendo los principios básicos de la evolución del mundo físico y de la vida.
Según Nash: "La Termodinámica no ha proporcionado ninguna prueba de que los procesos espontáneos deben realizarse siempre con aumento de entropía"(1974, p.53) pues hasta ahora el Segundo principio de la Termodinámica se ha erigido como un modelo cosmológico sustentado en hipótesis deterministas, tautologías, conjeturas y no en los observables de la naturaleza, transformando a la física contemporánea en un sistema de ideas tan interpretativo como la filosofía, por lo que Kuhn nos advierte sobre la falacia que significa un conocimiento especulativo que no intenta mejorar el conocimiento de la ciencia sino exclusivamente el de los paradigmas vigentes, tratando de hacernos asumir la idea de un universo entrópico cuando paradojalmente la realidad presenta por todas partes procesos constructivos sólo explicables desde una perspectiva neguentrópica en la organización de los procesos de la naturaleza y aunque estos ocurren en menor medida que los procesos entrópicos, definen un claro sentido hacia la complejidad y evolución del mundo y no hacia la inevitable muerte térmica del universo que establece la entropía.

La inconsistencia de nuestras teorías físicas.
La naturaleza no presenta la inconsistencia que muestran nuestras principales teorías físicas, pues es un todo coherente que no se fragmenta en escalas sino que es unitaria e inseparable, lo que hace posible descubrir patrones de comportamiento generales que permiten una representación integral del universo, formulando leyes y teorías de una ciencia que no será nunca una narración de la naturaleza, sino una construcción del intelecto humano en su intento por comprenderla; de este modo, las paradojas que presentan  las teorías físicas y la división en escalas macro y microscópicas son muestra de su inconsistencia y una  señal de alerta de que los modelos que construimos para interpretar el mundo físico no se ajustan al comportamiento unitario de la naturaleza, en que el único camino para resolverlas es a través de los observables y no mediante conjeturas.
Aunque a nivel cuántico la condición ondulatoria y estadística de la materia no tiene exigencias para adoptar leyes físicas que se asemejen a las del mundo macroscópico,  la dualidad de los procesos de la naturaleza que — junto a la reversibilidad habitual de la materia, la energía del medio y su propio comportamiento estadístico le permiten formar bucles de irreversibilidad que determinan su evolución temporal — nos permiten comprender que la indeterminación o incertidumbre observada a nivel cuántico no puede interpretarse al margen de los procesos del mundo macroscópico, puesto que los entes subatómicos conforman la base material sobre el que se estructura el mundo macroscópico en que la entropía  determinará ya a nivel de micro procesos, un umbral de creciente eficiencia en el utilización de la energía y las propiedades de la materia en las nuevas estructuras que se forman, de modo que sean la mejor respuesta a las condiciones del medio y la energía disponibles, definiendo un creciente nivel de eficiencia al reciclar aquellas estructuras que no sobrepasen un umbral de eficacia determinado por la complejidad del medio, idea que permite afirmar al doctor Prigogine “que también la entropía — no considerada un ente supra-presente sino una propiedad inmanente de la materia en todas las escalas —  debe constituir un umbral que evoluciona también con la complejidad del medio, representando el grado de evolución u  organización interna que debe tener el sistema en un medio que compite por recursos limitados y que a través de ella —exigiendo soluciones cada vez más asertivas en el empleo de los recursos en la naturaleza — se logra disminuir la cantidad de incertidumbre o entropía que prevalece en el universo”.
Este modo transitivo e irreversible de comprender el universo nos permiten reexaminar el comportamiento de la materia macroscópica que —  visto desde un prisma evolutivo — no está en contradicción con el comportamiento estadístico del mundo microscópico puesto que la naturaleza — como hoy se entiende el mundo cuántico — necesita explorar todos los caminos posibles para encontrar estadísticamente las configuraciones más adecuadas a sus procesos evolutivos. Esto no afirma que los estados reversibles no existan sino por el contrario, afirma que la reversibilidad del mundo físico — que se reproduce en las diferentes escalas en que dividimos arbitrariamente la realidad — exhibe bucles de irreversibilidad sustentados en los comportamientos estadísticos y  azarosos y hasta accidentales de la materia, de modo que en su conjunto — como las interferencias constructivas y destructivas en teoría ondulatoria — el universo evoluciona en forma estadística hacia la irreversibilidad expresada por los procesos constructivos de la naturaleza y no hacia una tendencia a la degradación señalada por una entropía erradamente convertida en principio cosmológico.
La representación de los estados reversibles e irreversibles no contrapuestos en las diferentes escalas en que arbitrariamente dividimos la realidad para comprender su evolución, nos permite aproximarnos a una comprensión más profunda y creativa de la entropía en la evolución de la naturaleza, en que su comportamiento macroscópico se extiende al mundo cuántico, en que no todas las estructuras que se formen permanecerán puesto que la presión del medio generada por la entropía revelará estadísticamente las respuestas que mejor se adapten a las condiciones de un medio en permanente cambio, logrando que en su conjunto este evolucione hacia estados de progresiva complejidad a nivel molecular, situación que cuestiona en todos los planos de la realidad las tendencias entrópicas de la materia en  interacción con la energía, que no puede dirigirse siempre a estados de menor complejidad, puesto que desde Darwin sabemos que no es la dirección que sigue la materia en el universo.
Por lo expuesto, sabemos que muchos de los conceptos deterministas acerca del tiempo deben ser reformulados a la luz del comportamiento real de la materia, puesto que la incongruencia de nuestras teorías son solo paradojas del pensamiento inexistentes en una naturaleza unitaria, que hace a los científicos estrellarse contra el muro de los imposibles pretendiendo construir teorías fundadas sobre conceptos que aparecen como verdades inamovibles, que lejos de iluminar nuestra búsqueda, nos impiden oponernos a una serie de conjeturas indemostrables que se han convertido en obstáculos para comprender una realidad que es distinta a la expresada por la entropía y el tiempo de Newton y Einstein, que debe reducirse solo a determinar el umbral de incertidumbre que prevalece en un sistema y no en el marco general de la evolución y organización de la materia y la energía del universo. Ahora es más necesaria que nunca la actitud de Planck ante la ciencia pues aunque los observados no armonizaban con sus ideas, utilizó la cuantización de la energía como apoyo matemático para explicar el fenómeno físico que la originaba, avanzando como Aristóteles con la observación de la naturaleza como única pauta, abriendo el campo de la visión científica para que otro físico brillante como Einstein reconociera la materialidad de su idea genial, descubriera el fotón y confirmara la teoría atómica dando inicio a la mecánica cuántica, permitiendo un salto gigantesco en la evolución de la humanidad.
Por lo anterior, afirmamos que es momento de dejar la Segunda ley de la Termodinámica como regla general de evolución del universo, integrándola solo como una tendencia hacia la reversibilidad de aquellos fenómenos del mundo macroscópico que no interaccionan con la energía, conducta límite que es opuesta a la de los  procesos que ocurren en la materia real en presencia de energía, en que la entropía determinará un umbral de eficiencia en los procesos de auto organización, que junto con las tendencias negativas de la entropía se generan sistemas cada vez más complejos y eficientes, definiendo una conducta evolutiva del universo en su conjunto. Desde este punto de vista, es evidente que la entropía no es el marco general de comportamiento de un universo que se degrada, puesto que no describe acertadamente el mundo en que vivimos, pues desde hace siglos es científicamente imposible dudar que la naturaleza tiende a la evolución y que no estamos en un universo que se simplifica y tiende a la muerte térmica, tautología que contradice por si misma sus propias aseveraciones puesto que no puede haber muerte térmica en un universo cerrado en que no existe perdida de materia y energía, pues su producto permanece constante y la materia y la energía se intercambian e interaccionan permanentemente de acuerdo al principio de equivalencia de Einstein y lo que cambia es su  complejidad y su sentido evolutivo, que es opuesto al Thanatos determinado por la entropía como la entiende sir Arthur Eddington.
Lo mismo sucede con nuestro planeta; la tierra está sujeta a constantes procesos  entrópicos que la degradan y erosionan constantemente; no obstante, esta tendencia es contrarrestada por una serie de procesos constructivos de gran dinamismo que la regeneran que con el empleo creativo de la energía, han sido el soporte evolutivo de la corteza terrestre como de nuestra atmosfera y de todos los seres vivos; la vida vegetal —transformando la radiación solar en materia — ha formado prácticamente todo el oxígeno del planeta, que tiene un 42% de la masa total de la tierra y muchos de los compuestos que forman las rocas actuales han sido originados por la actividad biológica marina desde hace 4. 500 millones de años y sus depósitos han acrecentado una corteza que posee actualmente materiales que el planeta originario carecía, de modo que la actividad de los seres vivos transformando la radiación solar en materia — aunque con pérdida de energía pues la vida no viola los principios fundamentales de la termodinámica como asevera Schrödinger — ha producido  una serie de fenómenos de acreción, de modo que la corteza actual es en gran medida el resultado de la acumulación de rocas sedimentarias ya sea formadas directamente por actividad biológica  marina o en forma indirecta en fenómenos oxidativos pues los óxidos metálicos terrestres son resultado de la interacción de los metales con el oxígeno biológico — así como los sulfatos y carbonatos son el resultado de su interacción con la atmósfera primitiva — de modo que los elementos originarios han reaccionado con los gases de la actividad biológica reunidos en la atmósfera y han servido para reconocer las condiciones de la evolución terrestre a partir de la atmósfera primitiva; así también, todos los yacimientos de carbón del planeta y buena parte de los hidrocarburos son también resultado de la acumulación generada por la vida vegetal y animal, por lo que puede afirmarse que si no fuera por los importantes procesos creativos de la naturaleza como la fotosíntesis, la tectónica de placas y la consolidación electroquímica de gas carbónico que realizan los animales marinos para precipitar carbonatos que constituyen los depósitos sedimentarios más importantes del planeta, el mundo que conocemos no tendría oxígeno, combustibles ni vegetales, el planeta contendría solo una fracción de la masa actual y a las zonas emergidas de la tierra le habrían bastado 10 millones de años para desaparecer en las aguas como sedimento de los procesos erosivos de la entropía.
Por estas razones debemos insistir en que los estados alejados del equilibrio asociados a los procesos constructivos de la naturaleza, que junto a los procesos entrópicos que — al exigir soluciones cada vez más asertivas en la organización de la materia — son  el soporte evolutivo de las estructuras de la naturaleza en que se genera tanto orden como desorden, siendo la bifurcación de los procesos físicos y la ruptura de la simetría temporal que ella implica que jugando un rol constructivo, introduce la historia en un universo en que el tiempo propio de cada proceso no es desgaste ni disipación y aunque exista una tendencia entrópica, su resultado neto no es de degradación sino de creación y evolución. En este contexto, la entropía juega un rol determinante en el universo a nivel cosmológico, pues es un parámetro que genera una presión de selección tanto en el mundo físico como en los seres vivos, determinando procesos evolutivos que se oponen cada vez más eficientemente a la entropía generando evolución, armonía y futuro; de este modo, podemos entender la organización de los sistemas de la naturaleza como un todo en el que sus partes se encuentran íntimamente relacionadas, en que la presencia de dos tendencias opuestas: la entropía y la neguentropía — más que un conflicto — son fuerzas que equilibran la materia y la impulsan a evolucionar hacia un orden  más complejo y dinámico. “Por eso la dirección en que podemos encontrar el origen del tiempo no es en la física clásica, sino sosteniendo que el tiempo aparece en sistemas que incrementan su complejidad, donde la información y la probabilidad juegan un papel clave en el medio, pues representan la cantidad de organización interna que tiene el sistema y que a través de ella se puede disminuir la cantidad de incertidumbre o entropía que prevalece en una naturaleza que no alcanza nunca un estado de equilibrio, espacio-tiempo virtual necesario para seguir evolucionando y avanzando hacia el futuro”.
Como señala Penrose, “a nivel microscópico los flujos de correlaciones derivados de la agitación térmica entre partículas, pueden determinar formas constructivas de organización que determinan una flecha del tiempo a nivel de micro procesos”. En palabras de Prigogine “Si analizamos sistemas simples como un péndulo ideal  sin fricción, no tendremos forma de distinguir entre pasado y futuro, si vemos una película que muestra el movimiento de un péndulo no importa si hacemos funcionar el proyector hacia adelante o hacia atrás, siempre veremos lo mismo: podemos decir que se trata de una película reversible; lo mismo sucede si consideramos el movimiento de la Tierra alrededor del Sol: no hay irreversibilidad aparente asociada a este proceso; el problema surge al considerar los sistema simples como modelos estáticos del universo, eliminando la fricción en el péndulo y la historia del sistema solar, imaginarlos eternos y a partir de eso imaginar  conclusiones tratando de hacerlas válidas más allá de su contexto. De esta forma simplificada y errónea, mintiéndose a sí misma en sus principios, la física clásica concluye que la flecha del tiempo no existe y que la entropía es “la ley del universo”, por eso que solo descubriremos la verdadera historia  de la naturaleza del tiempo al estudiar los sistemas complejos”, cuya dirección es opuesta a la entropía. Vista desde esta perspectiva, la complejidad nos permite liberarnos de la racionalidad cerrada y ficticia de la ciencia clásica, restando uno de los condicionamientos básicos de las teorías científicas que es el cultural; esto permite abrir el dialogo con la naturaleza hacia lo imprevisto y azaroso hasta ahora excluidos de los fenómenos físicos de modo que la realidad no pueda ser determinada con una mirada teórica y abstracta, sino explorada estadísticamente en el tiempo para comprender el mundo abierto al cual pertenecemos y participar en su construcción y evolución. Esto constituye una revalorización conceptual en una realidad que integra probabilidad e improbabilidad, orden y desorden, reversibilidad e irreversibilidad, linealidad y no linealidad, entropía y neguentropía, restándoles su significación opositora y comprendiendo su tendencia dialéctica que permite a la naturaleza evolucionar, generando un orden cada vez más complejo en que junto a las leyes generales de la termodinámica y de la entropía, hallaremos una tendencia a la auto organización de una materia que presenta estructuras matemáticas con enormes posibilidades de información, con las consecuencias epistemológicas que posibilita la ampliación de la racionalidad científica hacia la gran riqueza conceptual y metodológica que permiten los paradigmas de la complejidad, la que nos describe un escenario en que el futuro debe ser contingente y no determinista, pues no está determinado sino que será el fruto  de la evolución, la  indeterminación y el azar, incluyendo a la vida como parte de los procesos evolutivos de la naturaleza; en este escenario, "la actividad humana creativa e innovadora no puede entenderse como ajena a la naturaleza, debiéndose considerar como una ampliación e intensificación de rasgos presentes en el mundo físico, que el descubrimiento de los procesos alejados del equilibrio nos permite comprender". De este modo, las situaciones dinámicas que rigen la evolución de los fenómenos naturales son semejantes a las que rigen la evolución de los seres vivos, del hombre y la sociedad”, trascendentes ideas que según la Academia Sueca de Ciencias le dieron a Ilya Prigogine la oportunidad de recibir el Premio Nobel de Química en 1977.

El tiempo propio.
Generalizando las ideas de Copérnico — el primer científico occidental en observar y comprender objetivamente el cosmos — su principio cosmológico fundamental afirma que  nuestro lugar en el universo no es en ningún modo singular y tal como se ve desde nuestro pequeño planeta puede verse desde cualquier punto que lo observemos, de modo que el universo es homogéneo e isótropo. No obstante — si bien esta isotropía espacial es incuestionable a gran escala — esta no puede aplicarse en forma literal en una escala menor, pues  en el universo la materia y la energía no se distribuyen de modo uniforme como las moléculas de una gas, sino que conforman una serie de estructuras discontinuas como galaxias, cúmulos galácticos y redes unidas por la gravedad y separadas por grandes espacios vacíos; nosotros habitamos en uno de los brazos de una galaxia — una concentración de estrellas con una disposición espiral que a su vez forma parte de una estructura mayor, el grupo local — pero  con la salvedad de las diferencias “locales”, la situación es muy semejante en todos los confines del universo.
Esta afirmación tampoco es válida en los extremos del universo, pues por su alejamiento espacio-temporal, observamos los confines cómo eran en su pasado lejano, mostrando las etapas iniciales de propagación y formación de materia a partir de la radiación, lo que obliga a aceptar la idea que la homogeneidad a gran escala del universo no es aplicable en el dominio temporal, puesto que en el pasado el universo era muy distinto al actual, encontrándose en un proceso expansivo que ha evolucionado temporal y espacialmente a partir de un evento que toda la materia y energía se concentraba en un punto inmaterial de energía unificada, escenario en que los procesos de formación de materia descritos en el modelo estándar a partir del proceso radiativo originario que aún podemos observar en los extremos del universo, los entes de la naturaleza evolucionan en una secuencia de procesos de materialización desde la radiación corpuscular — formada por núcleos de Hidrogeno, Helio y en cantidad decreciente los de mayor peso molecular — que en su agregación experimentan transformaciones irreversibles, formando estructuras de creciente complejidad, momento angular y masa.
Estos procesos evolutivos iniciales aún muy poco comprendidos — determinados por la propagación de materia cuantizada en forma de campos de radiación corpuscular a la velocidad de la luz — se  contraponen con las descripciones relativistas de una expansión material clásica y más aun de una propagación material a velocidades superlumínicas expresadas por las teorías de de Sitter y Alan Guth; no obstante, las estructuras de los confines del universo —denominados cuásares — son enormes aglomeraciones de radiación corpuscular formada casi íntegramente por plasma altamente ionizado aglutinado por los campos magnéticos inducidos por el material nuclear que se propaga a la velocidad de la luz, lo que está en franca contradicción con los paradigmas en boga de una expansión de materia clásica a millones de grados.
Estos conceptos –– determinantes tanto de la representación inicial del universo englobados en modelos expansivos como en la formación de las primeras estructuras cosmológicas y su evolución posterior –– no son nuevos en la ciencia contemporánea y es claro que estos deben ser descritos por su tiempo propio y sus leyes específicas de formación, pues la materialización de la radiación no se produce bajo condiciones espontaneas y arbitrarias de energía, sino por la interacción de sucesos determinados por las leyes de la mecánica cuántica cuyos productos resultantes deben de estar de acuerdo a principios de simetría inicialmente enunciados por Emile Noether y posteriormente explicitados por Dirac, que cumplen con la ecuación fundamental de Einstein E=Mc2, procesos en que la emisión de radiación electromagnética es secundaria y se origina en la aniquilación materia-antimateria a partir de la emisión de pares formados a partir de la materialización de la radiación corpuscular originaria.
No obstante, es paradojal que la incorporación a las teorías cosmológicas de conceptos que describen la expansión del universo con leyes físicas que han demostrado su validez en la naturaleza no sean percibidos aun como una propiedad real de la naturaleza, habiéndose recurrido a mecanismos hipotéticos de propagación material súper–lumínicos que se estrellan contra leyes demostradas experimentalmente — como la propagación ondulatoria e inmaterial de la materia-energía y el límite de la velocidad de la luz en el vacío — revelando sorprendentes carencias de un modelo cosmológico objetivo que explique con leyes físicas demostradas experimentalmente la evolución de los procesos transitivos enteramente cuánticos relacionados con los instantes iniciales del universo, aspecto de gran consecuencia en la descripción tanto de la propagación y formación de la materia barionica como su  agrupación mediante los campos magnéticos inducidos que se produce a partir de la radiación altamente ionizada en las primeras estructuras cosmológicas y su posterior unificación mediante la interacción gravitatoria y momento angular, aspectos que reflejan la carencia de teorías que al no representar el origen nuclear de esta importante fuerza de la naturaleza en cuyo estudio se han excluido sus fundamentos cuánticos por casi un siglo, cediendo ese importante terreno a la Relatividad General, que con su punto de vista determinista del universo no logra explicar el origen de la fuerza gravitacional y menos aún determinar una teoría coherente de propagación inicial del universo y la formación y evolución de las primeras estructuras cosmológicas, conceptos que deben surgir necesariamente de una teoría cinético-evolutiva eminentemente cuántica, puesto que dichos fenómenos están íntimamente ligados a la propagación de materia-energía unificada en forma de radiación, aspectos en que la Relatividad General carece absolutamente de competencia.
La primera expresión de la existencia de un tiempo propio en los eventos de la naturaleza la encontramos en la relatividad de Galileo; posteriormente Lorenz amplía el concepto a la velocidad de la luz y Einstein lo incorpora a la relatividad. En Prigogine, el tiempo propio define los eventos dinámico-evolutivos de la materia y la energía, íntimamente asociados al concepto de irreversibilidad de los fenómenos de la naturaleza.

Prigogine, el tiempo y la Filosofía.
Para Prigogine, “toda definición del tiempo debe ser una necesaria reconciliación entre el pensamiento científico y la filosofía, pues desde Newton y Descartes los paradigmas del mecanicismo han disociado el pensamiento en dos culturas divergentes y para comprender las leyes y su papel en un universo en evolución, estos conceptos deben ser abordados por la ciencia y la filosofía, unificándose para ser coherentes en ambos mundos del saber”. Esta necesaria comunicación entre disciplinas hasta ahora contrapuestas hacen resurgir antiguas interrogantes anteriores al enclaustramiento disciplinario que generó el mecanicismo; “la fecundidad de la comunicación entre interrogaciones filosóficas y científicas no puede ser truncada por rivalidades originadas en teorías y dogmas deterministas sin contenido en la realidad, de modo que ningún límite arbitrariamente fijado debe detener la convergencia entre las interrogaciones de las ciencias y las filosóficas; no por ello podrán anularse sus diferencias naturales; la interrogación científica está sometida permanentemente a la experimentación, que limita la libertad del científico a su confrontación con la naturaleza, que se encargará de desmentir las más seductoras hipótesis; para la filosofía se trata también de una diligencia experimental no sobre la naturaleza física sino sobre la naturaleza de los conceptos y  la lógica y asertividad en el planteamiento de los problemas y la coherencia de sus respuestas con el mayor rigor posible”.
De este modo, para Prigogine el progreso de la ciencia depende en gran medida de una estrecha cooperación entre las ciencias de la naturaleza y las ciencias del hombre, intento que se opone a la fragmentación del conocimiento afirmando que “las ciencias exactas y las humanas están condenadas a progresar juntas o a perecer juntas”. Para Prigogine, la ruptura entre ambas disciplinas obedece en gran medida a que las ciencias humanas relatan acontecimientos y las exactas buscan leyes permanentes, pero la irreversibilidad de los procesos físicos hace desaparecer esta oposición, porque los fenómenos físicos tienen también historia pues evolucionan y no obedecen a leyes inmutables y podríamos agregar: la oposición también se diluye cuando advertimos que la vida y también el fenómeno humano se puede analizar desde el punto de vista de los sistemas alejados del equilibrio, de modo que estos se extienden también a las ciencias del hombre.  

Los fenómenos complejos.
La Física de los sistemas dinámicos ha demostrado la existencia de fenómenos complejos no descritos por la ciencia clásica, en que el todo no es la suma de sus partes como el conocimiento convencional he descrito hasta ahora la realidad. Visto en retrospectiva, esto no debería causar extrañeza ya que hasta hoy hemos representado al mundo mediante teorías matemáticas que ponen énfasis en su aspecto lineal, ignorando la totalidad en gran medida debido a lo complejo que resulta su descripción, ”lo que obliga  al uso de métodos aproximados”, por  lo que debemos preguntarnos sobre la validez de teorías y modelos utilizados hasta ahora para describir la realidad, ¿es el lenguaje  adecuado para describir la complejidad del mundo real?;¿Se han considerado todas las variables necesarias para describir el comportamiento complejo del mundo físico dentro de los formalismos matemáticos convencionales? La respuesta inevitable es no; la existencia de fenómenos emergentes que surgen cuando hay materia interactuando con la energía presentando características complejas como auto organización, formación de estructuras disipativas, resonancias, estados reversibles de alta energía e incluso los denominados estados caóticos — que son conductas coherentes de la materia que obedecen a leyes estadísticas de elevada complejidad — muestran que los fenómenos complejos no pueden ser explicados mediante su reducción a un lenguaje determinista, que tiene la intención de hacernos pensar en una realidad simplificada: la química no puede ser explicada como física aplicada, la biología como química orgánica, la vida reducida a genes y la conciencia y la inteligencia a una interacción entre neuronas; así también el Universo no puede ser reducido a una teoría de conjunto de cuerpos en degradación pues tal lenguaje es ineficaz para describir a un sistema  complejo, indeterminado y evolutivo.
Estos conceptos dinámicos abren nuevos caminos hacia el análisis y comprensión de las complejas estructuras cosmológicas que hasta ahora no han contado con una explicación genética y una teoría que las haga inteligibles,  en  que su evolución está determinada por los procesos constructivos de la materia y la energía, determinando la dirección de la flecha del tiempo a nivel cosmológico.

La evolución del tiempo y  de las leyes de la naturaleza.
A diferencia de toda la ciencia contemporánea, en Prigogine encontramos una visión del tiempo como un parámetro dinámico ligado íntimamente a la evolución los procesos irreversibles de la naturaleza, determinando una flecha del tiempo que se opone a  la entropía y sus procesos reversibles. Para Prigogine — a diferencia del tiempo determinista — cada evento debe adjudicársele su tiempo propio que se inicia con cada proceso irreversible de la naturaleza. Esta dimensión temporal múltiple, creadora y dinámica que expresa una visión probabilística, azarosa y hasta accidental en la evolución del universo, posee un nivel de incertidumbre o indeterminación que va mucho más allá del azar; es una necesidad de los principios de la materia que se opone decididamente a la visión determinista de Einstein en el nulo papel que atribuyó a la conducta estadística de una materia, que posee un nivel intrínseco de incertidumbre observable tanto a escala cuántica como macroscópica, por lo que para Prigogine Dios no solo juega a los dados sino que como todos los mortales también pierde, pues en un universo azaroso intrínsecamente indeterminado, toda predicción no probabilística está condenada al fracaso porque la naturaleza posee una complejidad y una conducta estadística cada vez más compleja que la hace impredecible y solo puede ser descrita y explorada con métodos estadísticos. 
Estas afirmaciones tienen necesarias implicancias en las leyes de la naturaleza, pues del mismo modo como en la evolución de los seres vivos, a nivel de la materia deben existir principios que evolucionan en el tiempo junto con ella, pues al no estar la diversidad y complejidad de los fenómenos del universo pre-establecidos, han debido crearse estructuras y compuestos progresivamente más complejos, por lo que sus principios de organización deben evolucionar con ellos, lo que la teoría debe modelizar para describir el conjunto de procesos transitivos que su futuro no está entera y eternamente determinado como opina el determinismo, sino que serán fruto de la evolución, de la indeterminación y del azar de la naturaleza, lo que obliga a aceptar también la idea de la evolución en el tiempo de las leyes naturales pues estas no han podido contener desde su inicio comportamientos inmanentes para operar hacia improbables condiciones futuras que al depender de procesos complejos e impredecibles a partir de reglas locales de elevado nivel de incertidumbre, que solo son posibles de representar a través de operaciones exponenciales de grandes números; esta revolucionaria afirmación reafirma el concepto evolutivo en la definición de los eventos de la naturaleza en que no pueden preexistir leyes que los gobiernen por no preexistir los fenómenos físicos con la complejidad para determinarlos, manifestando el carácter constructivo y la riqueza de información de los sistemas complejos en que surgen nuevos ordenes que nos enfrentan como en la evolución de los seres vivos, a fenómenos inéditos de cooperatividad y estructuración de un creciente nivel de complejidad tanto desde el punto de vista molecular como de información en todo el universo, procesos que desde esta óptica pueden ser motivo de importantes avances en nuestros actuales conocimientos de la realidad física en una serie de campos. “sabemos que la evolución termodinámica genera tanto orden como desorden, que se observan tanto en situaciones simples como complejas. En todos los niveles de la naturaleza, desde la biología hasta la cosmología, la irreversibilidad produce tanto orden como desorden; la vida solo es posible destruyendo moléculas constantemente, disipando energía y generando desorden, pero son esos procesos lo que permiten crear la inestabilidad necesaria para que se formen nuevas y complejas organizaciones de la materia que satisfagan cada vez de mejor modo las exigencias de un medio en permanente evolución; esto no se contrapone con la existencia de leyes generales que engloben el comportamiento de la materia y la energía sino todo lo contrario; reafirman el hecho que dichas leyes generales necesitan de un concepto estadístico subyacente que junto al determinismo incluyan la incertidumbre, la probabilidad y el azar”. 
Al igual que las especies, las estructuras de la naturaleza no evolucionan independiente y aleatoriamente sino que es el sistema en su conjunto que se desarrolla integralmente estableciendo un creciente umbral de eficiencia, determinando un nivel de evolución compartida o co-evolución cuya característica fundamental es una progresiva complejidad y economía en el empleo de los limitados recursos que dispone; la determinante en este proceso lo constituyen las relaciones recíprocas entre las estructuras existentes en el medio y la energía disponible, de modo que es el medio en su conjunto el que evoluciona de una forma cada vez más eficiente de utilización de los  recursos, en que las presiones entrópicas determinan la desaparición o subsistencia de las nuevas estructuras que se formen.

La paradoja de la irreversibilidad.
Hasta hoy el concepto de tiempo en la ciencia ha estado supeditado a una visión reversible sustentada en el Segundo principio de la Termodinámica y  la visión relativista de Einstein, para muchos el mejor defensor del determinismo de Newton en la física contemporánea. Siguiendo a Einstein, Bertrand Russell — el gran matemático y filósofo británico — afirma que el orden temporal de los acontecimientos depende solo del observador en que el concepto de presente sólo tiene significado en el marco de referencia que este se encuentra, por lo que  dividir el tiempo en pasado, presente y futuro no es más que una construcción mental sin un significado para las ciencias naturales, de modo que para el matemático Herman Weyl como para Russell y Einstein el tiempo no transcurre y simplemente existe como dimensión relacional y  pese el carácter ilusorio del tiempo a que este refiere sintetizando su visión subjetiva en las ciencias, no podemos seguir ignorando que los observables contradicen las aseveraciones de la entropía pues son los procesos de la naturaleza y no una teoría que nos indican que el universo es irreversible y tiene una historia con pasado, presente y futuro, en que el incremento de la complejidad determina la direccionalidad del tiempo penetrando toda las dimensiones de la naturaleza, estableciendo los principios básicos de la evolución del mundo físico y de la vida.
Prigogine ha llegado a la conclusión de que la reversibilidad de los fenómenos de la física solo se manifiesta de una manera excepcional en la realidad y no es más que un ideal. "La naturaleza presenta a la vez procesos irreversibles y reversibles, pero los primeros son una regla y los segundos una excepción”. 

La unidad de los fenómenos de la naturaleza.
A diferencia de nuestras teorías, la naturaleza no presenta distintos niveles de organización en el funcionamiento del mundo físico pues su comportamiento es unitario, indisoluble y coherente y hasta donde hemos podido llegado a comprender, presenta profundos comportamientos geométrico-matemáticos que han inducido desde el inicio de nuestra cultura en un afán primero utilitario y luego en un intento de conocer nuestro universo, avanzar en la búsqueda de analogías en el conocimiento y la comprensión de algunos principios generales que reflejen el comportamiento de la naturaleza, lo que hemos denominado ciencia.
De este modo, debemos admitir que la naturaleza no presenta las paradojas que muestra nuestras principales teorías en que hemos fragmentado la realidad en nuestro intento por comprenderla, debiendo asumir que la materia no debe tener exigencias para adoptar determinados comportamientos físicos en diversas escalas sino que es coherente consigo misma y con el universo como totalidad y de existir algún suceso causal que delimite su conducta serían los condicionantes del mundo microscópico el soporte material que determine las conductas estadísticas y la evolución de los procesos que observamos en los diversos niveles de energía en que se encuentra la materia, que no se desacopla en escalas sino que actúa en forma unitaria en una dimensión temporal determinada por los eventos irreversibles de la naturaleza. Esto no afirma que haya solo una dimensión temporal en el universo, sino que la reacción de la naturaleza ante la materia — en que no podemos hablar de materia aislada porque esto es una reducción determinista pues se encuentra siempre en movimiento relativo interactuando con la energía —  muestra un comportamiento unitario y coherente y puede asegurarse — si hablamos de tiempo propio el expresado por cada evento del universo como reconocemos en la ciencia desde Einstein — este espacio-tiempo tetra-dimensional debería constituir el universo de sucesos en todas las dimensiones que interacciona la materia con la energía.
No obstante la comprensión de la dualidad de los procesos macroscópicos de la naturaleza, que junto a la reversibilidad habitual del comportamiento de la materia, la energía del medio y su propio comportamiento estadístico forma bucles de irreversibilidad que determinan procesos globales de evolución, nos permiten comprender que la indeterminación o incertidumbre observada en el mundo cuántico no puede comprenderse al margen de los procesos del mundo macroscópico, puesto que estos conforman el fundamento material sobre el que se estructura el mundo macroscópico, en que la entropía debe determinar ya a nivel de micro procesos un umbral de  eficiencia en el utilización de la energía y las propiedades de la materia en las nuevas estructuras que se forman, comprendiendo que los desequilibrios de la materia que se presentan en interacción con la energía se expresen en estructuras auto-organizadas que serán la mejor respuesta a las condiciones del medio y a la energía disponibles, determinando un creciente nivel de eficiencia al reciclar aquellas estructuras que no sobrepasen cierto umbral de eficiencia explicitado por la complejidad del medio que obliga el segundo principio de la termodinámica; esto nos permite afirmar que también la entropía,- considerada no como un entidad omnipresente sino como una propiedad inherente de la materia que opera unitariamente constituye un umbral que evoluciona también con la complejidad del medio, representando el quantum de organización interna que debe obtener cada sistema como conjunto,  en un medio que compite por recursos limitados a través de exigir soluciones cada vez más asertivas en la organización de la materia y en el empleo de la energía, se puede disminuir la cantidad de incertidumbre o entropía que prevalece en el sistema.
Este modo unitario de comprender el universo en sus diversas escalas nos permite reexaminar el comportamiento de la materia macroscópica que — visto desde un prisma evolutivo — no puede estar en contradicción con el comportamiento estadístico del mundo microscópico, puesto que la naturaleza como lo muestra el mundo cuántico necesita explorar todos los caminos posibles para encontrar estadísticamente las configuraciones adecuadas tanto a sus principios como al medio y a sus procesos evolutivos. Esto no afirma que los estados reversibles no existan sino todo lo contrario, afirma que la  reversibilidad del mundo físico se reproduce en las diferentes escalas en que podemos dividir la realidad, presentando bucles de irreversibilidad sustentados en los comportamientos estadísticos, azarosos y hasta accidentales de la materia en sus diversas escalas de modo que — como las interferencias constructivas y destructivas en teoría ondulatoria — el universo evoluciona en su conjunto en forma estadística hacia la irreversibilidad expresada por procesos constructivos y no hacia una tendencia a la degradación  señalada por la entropía.
Esta representación de los estados reversibles como necesarios y no contrapuestos en las diferentes escalas en que arbitrariamente dividimos la realidad para comprender su evolución, nos permite aproximarnos a la comprensión de que la importancia de la entropía en el comportamiento del mundo macroscópico debe extenderse también en la escala del mundo cuántico, en que no todas las estructuras que se formen tendrán permanencia en el tiempo puesto que la presión del medio es la que deberá descubrir y seleccionar aquellas respuestas que mejor se adapten a las condiciones locales específicas de un medio en permanente cambio, logrando que en su conjunto evolucionen hacia estados dinámicos de progresiva complejidad.
El tiempo reversible e irreversible
La trascendencia de un tiempo reversible en Mecánica Cuántica e irreversible en la nueva Cosmología que deberá surgir de la aceptación de las nuevas leyes de la naturaleza que emergen del paradigma de la complejidad, deberá conducirnos a importantes modificaciones en sus estructuras conceptuales; no se trata de confrontar dos ciencias cuya fecundidad ha transformado la imagen de la física contemporánea sino comprender sus diferencias, que deben ser complementarias en las distintas escalas en que describimos una realidad que no se fragmenta en escalas sino que es unitaria y coherente; cualesquiera sean esos desarrollos está excluida una vuelta hacia atrás pues el carácter ilegítimo del ideal de inteligibilidad que había guiado hasta aquí a la física clásica al describir un tiempo reversible a nivel macroscópico ha concluido, cerrando una importante página de la historia de la física. En dinámica clásica, devenir y eternidad parecían identificarse y al igual que el péndulo imaginario oscila eternamente en torno a su posición de equilibrio, el mundo regido por las leyes de la dinámica mecanicista se reducía a una inmutable identidad; ese escenario inexistente describe un universo en degradación e involución hacia un estado de equilibrio termodinámico definido por la uniformidad y el nivelamiento de las diferencias, universo utópico que no representa el mundo real. ”En este sentido, es necesario plantearse tres aspectos desestimados por la dinámica clásica que caracterizan la evolución creadora del universo: la irreversibilidad de los fenómenos reales de la naturaleza, la existencia de acontecimientos contingentes no deducibles por leyes deterministas y el potencial de desarrollo de dichos acontecimientos hasta influir en la configuración del proceso entero; la evolución darwiniana es una muestra de la influencia de los tres aspectos señalados y de qué modo operan ellos en los procesos alejados del equilibrio, que hacen posible adoptar un comportamiento coherente a una multitud catica de moléculas comunicadas entre sí a distancias macroscópicas, generando auto organización, noción que se encuentra asociada a la de inestabilidad y  sensibilidad de un sistema a fluctuaciones espontaneas de la materia, capaces de generar profundos cambios en la naturaleza. "
Las ideas de Prigogine que las probabilidades en los sistemas lejos del equilibrio deben ser concebidas como potencialidades objetivas y  que el flujo de correlaciones imprime un carácter irreversible a los procesos microscópicos, permite plantear una nueva interpretación de la Mecánica Cuántica al considerarla como expresión de un indeterminismo intrínseco de las fluctuaciones cuánticas definido por  el carácter probabilístico de la ecuación de onda de Schrödinger; este concepto, que posee un potencial hasta ahora no estudiado, hace imperioso interpretar la irreversibilidad de las fluctuaciones cuánticas como una propiedad intrínseca de la materia, aspecto que deja sin base las interpretaciones subjetivistas de la Mecánica Cuántica.
Estudiando la dinámica de correlaciones, Prigogine constata "una diferencia fundamental en la materia microscópica entre la descripción en términos de trayectorias y la descripción estadística", en que surgen nuevas propiedades inherentes a conjuntos inestables y probabilísticos  y no a trayectorias individuales. "rompiéndose la equivalencia entre el punto de vista de partículas individuales y el estadístico". Este hecho notable “abre un nuevo capítulo entre las matemáticas y la física, al atribuir un sentido coherente a lo que podemos llamar “las leyes de lo complejo “ a nivel estadístico; cualquiera sea la situación, coexisten una descripción individual en términos de trayectorias, funciones de ondas o campos y una descripción estadística y en todos los niveles, la inestabilidad y no integralidad rompen la equivalencia entre las dos descripciones" y concluye: "La formulación de las leyes físicas debe ser modificada en todos los niveles, con el fin de estar de acuerdo con el universo abierto y evolutivo en que vivimos".

Las resonancias
En concordancia con su idea de inestabilidad de los sistemas a nivel microscópico, Prigogine redescubre un concepto formulado por Poincaré en relación con las trayectorias, explicitado también por Penrose: la noción de resonancia — fenómeno que se produce cuando un sistema capaz de oscilar en torno de una posición de equilibrio es sometido a una excitación periódica cuya frecuencia se acopla a la oscilación del sistema, amplificando sus oscilaciones —. Poincaré demostró que las trayectorias de la dinámica clásica son reversibles solo cuando no son afectadas por resonancias y que ello es la excepción y no la regla.  Siguiendo a Poincaré, Prigogine señala: "A nivel estadístico, las resonancias ocasionan la ruptura del determinismo introduciendo la incertidumbre en la Mecánica Clásica, rompiendo la simetría del tiempo; no hay  indeterminación cuando tratamos con un sistema integrable de partículas ideales sin interacciones mutuas, en que es posible una descripción en términos de trayectorias, pero esa descripción corresponde a casos limites e hipotéticos que no existen en el mundo real, por lo que las verdaderas leyes de la dinámica deben formularse en términos de probabilidades", y concluye: "Durante siglos las trayectorias fueron consideradas los objetos fundamentales de la física; ahora detentan una validez limitada y deben ser remplazadas por probabilidades”.
Estos conceptos de Prigogine reafirman las ideas que lo han conducido a exigir transformaciones transversales tanto en dinámica relativista como en Mecánica Cuántica: “los objetos fundamentales de la física no son trayectorias o funciones de onda sino probabilidades. Por largo tiempo vacilé ante esta conclusión radical; la cuestión era saber si se debían abandonar las descripciones de trayectorias o si los sistemas inestables exigían una descripción equivalente a la clásica que conservara su validez". De este modo Prigogine extiende a toda la física la concepción probabilística. ¿A qué se aplica esta idea de probabilidad? Las estadísticas expresan el modo en que actúan los flujos irreversibles de correlaciones determinados por las colisiones de partículas, influidas externamente por agitación térmica e internamente por resonancia. "A nivel estadístico, podemos poner de manifiesto el orden temporal de la naturaleza estudiando la evolución de la distribución de probabilidad por efecto de las colisiones; la noción central es la correlación. En el curso del tiempo nacen y se propagan correlaciones, que es el modo como la irreversibilidad emerge a nivel estadístico; se trata de construir una dinámica de correlaciones estadísticas y no una dinámica de trayectorias". Dicha corriente de correlaciones estadísticas de los sistemas irreversibles orientados en el tiempo han sido verificadas en simulaciones digitalizadas. Las relaciones de indeterminación de Heisenberg establecen que la onda-partícula en movimiento no tiene asociada una trayectoria definida como en la física newtoniana, de modo que las variables dinámicas como posición, momento angular, velocidad, momento lineal, etc., deben ser definidas solo de modo operacional y estadístico; es decir, en términos relativos al procedimiento experimental por medio del cual son medidas — incluyendo su nivel de error — de modo que el principio de incertidumbre comporta un desvío completo de las concepciones clásicas, haciendo que la noción de trayectoria al igual que  de partícula clásica deban ser desechadas”.
Cette vision créative, plein d´un future qui assigna un neuf et évolutive papier à l’entropie sur la nature contribuée à déterminer une ombrage de crèchent complexité qui admit inclure a la vie, al homme et la société sur les principes d’el univers,  c’est l´héritage de le grand Maestro Dr. Prigogine à ses disciples et contradicteurs, que ce soit espérons préserver  et acrescenter.

 Héctor Becker G.
Guatemala, 25 de Marzo de 2011



 .