Resultados 1 al 4 de 4
  1. #1
    Usuari@ expert@ Avatar de supernova
    Fecha de ingreso
    diciembre-2012
    Mensajes
    125

    Ciencia y espirtualidad


    La neurología cuántica podría explicar los mecanismos de la conciencia
    El “soporte físico” del psiquismo se hallaría en las propiedades básicas de la materia

    En los últimos 30 años han ido madurando en biología y neurología un cuerpo de teorías y de investigaciones empíricas hacia el conocimiento de los fundamentos cuánticos de la materia viviente. Una de ellas es la neurología cuántica, que relaciona los procesos de la conciencia humana con las propiedades de campo de las partículas elementales. Esta nueva neurología no sólo explica mejor al hombre, sino que es más armónica y congruente con los planteamientos religiosos. Por Juan Antonio Roldán.

    NOTA COMPLETA AQUI:

    http://www.tendencias21.net/La-neuro...cia_a1164.html


    Ojala se den la mano alguna vez, no somos materia inerte!!! Somos conciencia, ser!

  2. #2
    Romansero Avatar de oriola
    Fecha de ingreso
    abril-2009
    Ubicación
    Madrid
    Mensajes
    9.259
    ¡¡ Como molan los titulares que llevan el término cuántico/a !!
    ¿Conoces la cocina solar?

    Soy vehemente, ¿y tú?

    El fin del crecimiento


  3. #3
    Eterno aprendiz Avatar de Pride
    Fecha de ingreso
    julio-2009
    Ubicación
    Venezuela
    Mensajes
    7.890
    Cita Iniciado por oriola Ver mensaje
    ¡¡ Como molan los titulares que llevan el término cuántico/a !!
    Inventemos las Matemáticas cuánticas de Boole-Cantor.

  4. #4
    o.O
    Fecha de ingreso
    noviembre-2016
    Mensajes
    31

    Mecánica cuántica y cerebro: una revisión crítica


    Tomado de la Revista de Neurología (http://www.neurologia.com/pdf/Web/3501/n010087.pdf)

    INTRODUCCIÓN

    Los mecanismos cerebrales implicados en la génesis de los procesoscognitivos superiores son todavía poco conocidos por laNeurociencia, en especial aquellos aspectos relacionados con laconciencia. Por ello, como todo campo de la ciencia insuficientementeestablecido, puede abordarse por medio de hipótesis altamenteespeculativas. Existen numerosas opiniones y teoríascon respecto a este problema [1-4].Sin embargo, un grupo de teorías han experimentado un augerelativamente importante en los últimos años: aquellas que utilizanla mecánica cuántica (MC) para explicar la aparición de laconciencia. Estas teorías no comparten un fondo filosófico común,ya que su aproximación puede ir desde el dualismo religiosode Eccles, hasta el fisicalismo de Penrose. Llama la atención quevarios de los autores que defienden estas teorías sean personasajenas al campo de la Neurociencia (Penrose, Zohar).En este artículo se pretende pasar revista a algunas de lasteorías aparecidas acerca del tema, sin ánimo de ser exhaustivo.Se pretende, especialmente, abordar dichas teorías desde la perspectivaneurocientífica, con el objeto de intentar esclarecer quégrado de coherencia mantienen con el conjunto de conocimientoestablecido a este respecto por la Neurociencia. Se van a considerarlas teorías de los tres autores siguientes: John Eccles, RogerPenrose y Dana Zohar, aunque no son las únicas posibles [5].Para ello, intentaré dar una visión simplificada de aquellaspartes de la MC que son pertinentes para el desarrollo de lasteorías implicadas. Tampoco se pretende hacer una introduccióndetallada de la teoría física, para lo que existen excelentes obrasasequibles a personas sin formación matemática [6-8], sino, únicamente,explicar aquellos términos de la MC necesarios paracomprender las teorías analizadas.

    INTRODUCCIÓN A LA MECÁNICA CUÁNTICA

    La MC es la parte de la física que estudia el mundo de los átomosy las partículas subatómicas. Existe una constante fundamentalen física, la constante de Planck, que se representa por el símboloh y cuyo valor es de 6,6260755 ´ 10-34 J·s. Esta cantidad mide lamagnitud física denominada acción (energía ´ tiempo). Comopuede comprobarse, el valor de la constante de Planck es realmentepequeño cuando se emplea en el estudio de sistemas macroscópicos.Como aproximación válida, puede considerarse quese utilizará la MC cuando la acción implicada en el sistema problemasea del orden de magnitud de la constante de Planck. Seemplea más frecuentemente una modificación de h, que es h), quese define como h/2p (1,05457266 ´ 10-34 J·s).El desarrollo de la MC tuvo lugar en el primer cuarto del siglopasado. Puede fecharse su comienzo en diciembre de 1900, cuandoPlanck presentó ante la Academia de Ciencias de Berlín su teoría dela radiación de cuerpo negro [9]. Posteriormente, contribuyeron a sudesarrollo científicos de la talla de Einstein (efecto fotoeléctrico), DeBroglie (comportamiento ondulatorio de la materia), Bohr (conceptode complementariedad), Heisenberg (mecánica matricial y principiode incertidumbre), Schrödinger (mecánica ondulatoria y ecuación deonda), Pauli (principio de exclusión), Dirac (ecuación relativista delelectrón) o Born (interpretación probabilista de la función de onda),entre otra pléyade de eminentes físicos y matemáticos. El formalismomatemático de la MC se ha establecido sólidamente, así como suvalidez experimental, hasta el punto de que la exactitud con la quepueden calcularse teóricamente algunos efectos se ajusta a los datosempíricos con una precisión aproximada de una parte en 10 [10]. Sinembargo, su interpretación dista mucho de unificarse [6,11].La MC describe los sistemas físicos bajo estudio (un electrón,un átomo o un conjunto de partículas) por medio de la llamadafunción de onda o función de estado, habitualmente denominaday (psi). Esta y representa toda la información que podemos extraerdel sistema (energía, posición, momento, etc.).Una característica fundamental de la MC es que las funcionesde onda obedecen el principio de superposición [10]; es decir, sidos funciones de onda (y1 y y2) representan adecuadamente alsistema, la combinación lineal de ambas también lo representa.Por tanto, en general, la función de onda de un sistema puededarse por la combinación lineal de dos funciones de onda, multiplicadascada una de ellas por un coeficiente adimensional. Eneste caso, se dice que el estado cuántico y0 es superposicióncoherente de los estados y1 y y2.

    y0= ay1+by2 [Ecuación 1]El número de funciones que contribuyan a un estado cuánticopuede ser mayor de dos, incluso infinito.Este concepto de superposición resulta fundamental. No tienecontrapartida macroscópica, por lo que no es fácil su visualización.De alguna manera, podría decirse que el estado y0 es unamezcla de dos estados diferentes; sin embargo, esta mezcla nodebe entenderse en el sentido de la física estadística, es decir,como si el sistema estuviera en una de dos posibles alternativas,con probabilidades diferentes dadas por los coeficientes complejos;al contrario, como si dicho sistema se diera por la existenciareal y simultánea de dos estados que se superponen o entremezclan,ponderados por los coeficientes.La dinámica de un sistema mecanocuántico es gobernada poruna ecuación en derivadas parciales, cuyo comportamiento, entanto que no se produzca una medida, es perfectamente determinista.Esta ecuación se denomina ecuación de Schrödinger. Parauna partícula de masa m, en una dimensión y en un sistema en elque la energía potencial [V(x)] no depende del tiempo, la funciónde onda y(x,t) obedece a la siguiente ecuación , ) ( )222 2x t V xt m xi +y¶- ¶ y=¶¶y hh [Ecuación 2]En general, su resolución es muy complicada, y sólo en circunstanciasfavorables puede resolverse –sistemas con pocas partículas yfunciones de energía potencial suficientemente simples, átomoscon pocos electrones, etc.–. Lo verdaderamente importante paranuestro propósito no es la resolución ni la forma de dicha ecuación,sino el hecho de que su evolución es perfectamente determinista,en tanto no se realice ninguna medida sobre el sistema.Medición y mecánica cuánticaÉste es uno de los puntos más espinosos de la interpretación de laMC. Por medición entendemos la interacción del sistema mecanocuánticocon otro sistema cuyos estados macroscópicos se correlacionaráncon los posibles estados del sistema cuántico. Sin entrar endetalles, básicamente se trata de que, al medir un sistema como eldado en la ecuación 1, sólo podremos obtener como valor de lamedida alguno de los estados que forman parte dey0. Precisamente,las probabilidades de obtener cada uno de dichos estados la dará elvalor absoluto del cuadrado del coeficiente complejo que lo precede.Así, la probabilidad de que al medir y0 obtengamos y1 será |a|2 (vercuadrado de un número complejo en el Apéndice). Observamos,por tanto, que, aunque la evolución del sistema es determinista, alhacer una medida, sus resultados serán siempre aleatorios, aunqueseamos capaces de conocer a priori las probabilidades de ocurrenciade cada posible resultado. Esta transición irreversible desde unestado de superposición (incluso de infinitos estados) a un estadoúnico es lo que se denomina colapso de la función de onda.El problema teórico de la medición tiene su origen en lo siguiente:sea un sistema mecanocuántico que se quiere medir (y0),y sea un sistema de medición (S). Supongamos, por simplicidad,que y0 es una superposición coherente de dos estados con igualprobabilidad de ocurrencia, es decir ) 0 1 221y = y +ycuando S interacciona con y0, también debe obedecer las reglasde la MC, por lo que se formará un nuevo sistema, S’= S + y0. Portanto, el nuevo sistema, formado por ambos sistemas iniciales,estará también en una superposición de dos estados. Sin embargo,cuando comprobemos cuál es el resultado de la medida, por ejemplo,al observar la posición de una aguja en una pantalla, nuncaveremos una superposición de dos estados, sino que la agujatendrá una posición definida. Este hecho suscita numerosas cuestiones,como, por ejemplo, ¿qué o quién ha producido el colapsode la función de onda?, ¿cuándo y cómo ha tenido lugar?, ¿porqué el paso desde el estado microscópico al macroscópico seproduce a través de un paso aleatorio e irreversible? Para algunosautores, es precisamente la intervención de la conciencia delobservador la que produce este colapso (Bohr y la escuela deCopenhague-Gottinga, Wigner [6,12]).El principio de incertidumbreJunto con la teoría de la medida en MC, otro de los tópicos importantespara nuestro propósito es el principio de incertidumbre deHeisenberg. Este principio se expresa de dos maneras distintas,que indican la imposibilidad de conocer de forma exacta la posicióny velocidad de una partícula, o bien, la energía y el tiempopropio de un sistema. Es decirx Dp³ h/2 [Ecuación 3]DE Dt³ h/2 [Ecuación 4],donde Dx es la incertidumbre en la posición; Dp, la incertidumbreen el momento (masa por velocidad); DE, la incertidumbre de laenergía, y Dt, la incertidumbre del tiempo.Algunos autores explican este principio como una dificultadtécnica en la medición de sistemas microscópicos. Sin embargo,es mucho más que eso, ya que se trata de un principio básico eintrínseco de la naturaleza [9,11]. Una posible interpretación, queva a resultar muy pertinente en lo que sigue, puede ser la siguiente:un sistema físico podría ‘tomar prestada’ una energía extra (p.ej., para atravesar una barrera de potencial) durante períodos cortosde tiempo, siempre que dicha energía ‘se devolviera’ por el sistema,antes de que se violara la relación expresada en la ecuación4. De modo que, cuanta mayor energía se tomara prestada, menorsería el tiempo de préstamo. No debe olvidarse que este principiono es un camino para violar el de conservación de la energía.La no localidad cuánticaEste fenómeno consiste, básicamente, en que todas las partes queforman un sistema, aunque se encuentren espacialmente separadas,deben describirse en conjunto y mantener propiedades comunes.Supóngase un átomo radiactivo que emite dos protones yque se desea medir alguna característica importante de cada unode ellos, como, por ejemplo, sus espines. Aunque los protones seencuentren separados espacialmente por distancias kilométricas,la medida del espín de uno de ellos determina de manera unívocae instantánea la medida del espín del otro protón. Es decir, a pesarde que ambos protones estén distanciados varios kilómetros, formantodavía parte de un mismo sistema. Ambos protones se diceque se entrelazan (entangled). La comprobación experimental deesta predicción se realizó por primera vez en 1982 [13].Este fenómeno resulta de extraordinaria importancia filosófica,pues pone en entredicho la separación de los cuerpos, la acción adistancia y la teoría de la causalidad. Además, también se utilizamucho, como veremos, para explicar el mecanismo de la conciencia.Clasificación de la materia según la MC. Teoría estándarOtro aspecto de la MC relevante para nuestros propósitos es la teoría de las estadísticas de Fermi-Dirac y Bose-Einstein [14]. Lateoría estándar distingue dos tipos de partículas en la naturaleza:1. Fermiones. Partículas con espín múltiplo de ½ que forman laparte masiva de los átomos. Obedecen la estadística deFermi-Dirac e incluyen a los electrones, protones o neutrones.2. Bosones. Son partículas portadoras de fuerzas. Pueden o notener masa y sus espines son cero (0) o números enteros. Obedecenla estadística de Bose-Einstein e incluyen a los fotones(fuerza electromagnética), partículas Z0 y W± (fuerza débil),gluones (fuerza fuerte) y gravitones (fuerza gravitatoria).El hecho fundamental es que los fermiones obedecen el principio deexclusión de Pauli, que impide que existan dos partículas exactamentecon los mismos números cuánticos, es decir, exactamente con lamisma función de estado y. Por el contrario, los bosones no obedeceneste principio, por lo que pueden existir múltiples bosones conidéntica función de onda. Un ejemplo cotidiano de este fenómeno esel láser, en el que los fotones tienen todos la misma función de estado.Un efecto muy importante predicho para los bosones es lallamada condensación de Bose-Einstein (CBE) [15]. Este fenó-meno consiste en que diversos bosones con funciones de estadodistintas (yi) pueden, bajo ciertas circunstancias –específicamente,a temperaturas próximas al cero absoluto–, tener una únicafunción de onda (y), de modo que pasan a ser una única partícula.Computación cuánticaPor último, otro concepto mecanocuántico, desarrollado más recientementepero que tiene importancia en alguna de las teorías consideradas,es el de computador cuántico [16-18]. En esencia, consisteen un sistema mecanocuántico superpuesto, que permite que cadauno de los estados que forman la superposición realice un procesode cómputo. De este modo, el cálculo se realizaría de manera paralelaa través de tantos canales como estados formen la superposición.Una vez realizados todos los cómputos a través de los diversoscanales superpuestos, se produciría la descoherencia del sistema–colapso de la función de onda–, que daría lugar al resultado delcómputo. Este ordenador sería mucho más rápido que los actualesy permitiría simular comportamientos que hoy no son susceptiblesde computación, como son los propios sistemas cuánticos.La MC resulta bastante más completa y compleja de lo que aquíse ha esbozado. Sin embargo, estos temas son suficientes paracomprender y discutir las teorías seleccionadas en este trabajo.TEORÍAS MECANOCUÁNTICAS DE LA CONCIENCIASe exponen, de la manera más concisa posible, las principalesideas de los autores discutidos. En muchos casos sus fundamentacionesimplican, como ocurre con Zohar y Penrose, argumentacionesfísicas previas. Siempre que no sean imprescindiblespara el tema que nos ocupa, no se discutirán, aunque podrían tenerrelevancia filosófica.Interacción dualista entre el alma y el cuerpo (John Eccles)Las obras en las que se han expuesto sus ideas son: Do mentalevents cause neural events analoguously to the probability fieldsof quantum mechanics? [19], La evolución del cerebro: creaciónde la conciencia [20], y A unitary hypothesis of mind-brain interactionin the cerebral cortex [21].Se trata de una teoría claramente dualista, derivada de las profundascreencias cristianas del autor, según sus propias palabras [20].En opinión de Eccles, es imposible que la unicidad experimentada por uno mismo pueda originarse a partir de la infinidad deconexiones sinápticas cerebrales, estimadas en unos 100.000 millones,máxime al considerar la plasticidad sináptica. Por otro lado,tampoco es posible que esta unicidad emerja a partir del códigogenético de cada persona. Dado que las explicaciones materialistasfracasan, el autor propone que la unicidad del yo tiene su origen enla existencia de un alma espiritual creada de manera sobrenatural.Por lo tanto, el principal problema ahora consiste en describir quées ese ente espiritual y cómo se relaciona con el cerebro.La existencia de teorías que preconizan identidad entre cerebroy mente [22] implica, en opinión de Eccles, la existencia de doscategorías de neuronas: aquellas que sólo tienen un comportamientofísico, puramente neurobiológico, serían las neuronas de evento neural(EN), que corresponderían, por ejemplo, a las células de las víasmotoras o sensitivas, y las células en las que se produce la identidadentre eventos mentales y neurales (EMN), situadas en determinadasáreas corticales concretas, probablemente en regiones de asociación.Según el autor, existe evidencia de que diversas actividadesmentales (pensamientos, sentimientos, intenciones, etc.), generadosinternamente, son capaces de actuar sobre las neuronas. Estehecho demuestra que se necesita algo más que un sistema cerrado,puramente material, para explicar estos datos. Por lo tanto, el comportamientohumano y su conciencia precisan de la existencia dealgo extramaterial para dar cuenta de su funcionamiento.Cada columna cortical [23] puede considerarse como unaunidad funcional de neuronas, de modo que, las dendritas apicalesde grupos de aproximadamente 200 de ellas, formarían undendrón [24]. Cada uno de estos dendrones se relacionará unívocamentecon una unidad funcional del componente mental denominadopsicón. Puede decirse que el conjunto de todos estospsicones, de naturaleza puramente inmaterial, forman el alma. Elproblema que surge a continuación es cómo explicar la interacciónentre los dos constituyentes del hombre: dendrones (materiales)y psicones (espirituales). Para ello, la clave está en lassinapsis de las espinas dendríticas de las células piramidales dedeterminadas áreas corticales.Las sinapsis centrales en los mamíferos tienen dos gruposfuncionales de vesículas sinápticas: un grupo adherido a la rejillapresináptica, estructura proteica reticular, de características casicristalinas, que en cierto modo controla la exocitosis [25], y otropoole, de vesículas de reserva. La probabilidad de liberación deuna vesícula sináptica en un botón es claramente inferior a 1[19,26,27], y esta probabilidad la regula la rejilla presináptica.Es en este punto donde Eccles utiliza el concepto de campomecanocuántico de probabilidad [28]. Aunque no explica muybien sus características, se trataría de un campo con existenciafísica real, cuya acción sería modificar la probabilidad de liberaciónde una vesícula presináptica y actuar, presumiblemente, sobrela rejilla presináptica. Con el principio de incertidumbre, segúnEccles, no se violaría el principio de conservación de la energía,ya que, según sus propias estimaciones, la masa de una vesícula[20] está en torno a 10-18 g.Este proceso explicaría la interacción del alma sobre el cerebro.La explicación del proceso inverso, es decir, la interacciónentre la corteza cerebral y el alma espiritual se llevaría a cabo pormedio de un proceso como el siguiente: la exocitosis de las terminacionespresinápticas de las fibras aferentes sobre las célulascorticales se detectaría por el campo cuántico de probabilidad,presumiblemente al interaccionar a través de la rejilla presináptica.En ese momento, el evento puramente neural se convertiríaen mental, y se haría consciente.

    La existencia de este campo cuántico de probabilidad unitariopermitiría explicar la unicidad radical del ser humano y su conciencia.Teoría de la conciencia como condensaciónde Bose-Einstein (Dana Zohar)Hipótesis esbozada por la física Dana Zohar en el texto La concienciacuántica [29]. En esencia, se trata de lo siguiente: la principalcaracterística de la conciencia es su unidad, por lo que elsustrato físico de la misma debe ser un ‘estado constante’, esdecir, que sea uniforme en el espacio y persistente en el tiempo.Esta propiedad pone límite al tipo de teorías físicas que puedenaplicarse para la explicación científica de la mente.Obviamente, todo sistema físico puede estar en una fase coherenteo fase condensada, donde, virtualmente, todas sus partes compartanidénticas propiedades, o en una fase no condensada, en la quecada parte del sistema presentaría propiedades diferentes. Resultaevidente que un sistema de fase condensada puede considerarse comouna unidad, aunque se trate de un sistema macroscópico, pues sedescribe por una(s) única(s) ecuación(es) para todo punto del mismo.Por tanto, al relacionar ambos razonamientos, se concluye que laconciencia debe emerger a partir de un sistema de fase condensada.En MC existe un fenómeno que permite la máxima condensaciónde un sistema: la CBE. Esta propiedad permite, por ejemplo, fenó-menos como la luz láser o la superconductividad. Por tanto, si existieraCBE en el cerebro, ésta podría ser el sustrato físico de la conciencia.Este mecanismo que permite una fase condensada a la temperaturadel cuerpo se propuso hace unos 30 años [30-32] y se denomina‘sistema de bombeo’. Consiste en que las membranas celulares secomponen de dipolos eléctricos que emiten fotones virtuales en elintervalo de las microondas, debido a su vibración térmica. Más alláde cierto umbral, las moléculas vibrarán al unísono, y aumenta susincronización hasta que llegan a la CBE, de modo que todas aquellasmembranas neuronales que formen el sistema se convierten en untodo único. En el fondo, se trata de un sistema de resonancia en el quela emisión de un fotón de una longitud de onda (l) determinada darálugar a la absorción del mismo por otro dipolo, que comenzará avibrar con una frecuencia cada vez más parecida a la del dipoloemisor, de modo que, cuando alcance ésta, emita a su vez fotones deidéntica energía (es decir, frecuencia). Este sistema amplificado permiteque todo el sistema de múltiples neuronas resuene al unísono.La energía necesaria para que los dipolos comiencen a oscilary a ‘cebar’ todo el sistema podría provenir de los potenciales deacción. Es decir, la generación de un potencial de acción podría sersuficiente para que los dipolos de la membrana neuronal comenzarana emitir fotones que, al absorberlos las neuronas próximas, induciríana éstas a ‘resonar’ y emitir, a su vez, fotones que aumentaríanel sistema CBE mediante una reacción en cadena; ello, hasta abarcarregiones cada vez más distantes, de manera que las moléculas de losneurolemas adquirieran las propiedades de uniformidad, ausenciade rozamiento y totalidad indivisa, y generar un campo unificadoque sería en realidad ‘una experiencia consciente’.Este mecanismo físico, intrínseco a las membranas biológicas,permite atribuir grados diferentes de conciencia a las membranas:desde los seres unicelulares como los protozoos hasta, porsupuesto, las plantas o los animales; en realidad, cualquier estructurabiológica –no tiene por qué ser una célula nerviosa– podrápresentar este proceso y ser, en algún grado, consciente.Un aspecto relevante de esta teoría, desde el punto de vistaneurocientífico, es que la característica fundamental de la conciencia(su unidad) no tiene nada que ver con las conexiones delas neuronas individuales.

    Existiría un funcionamiento ‘clásico’ del cerebro en el que lasneuronas funcionarían tal y como lo conoce la Neurociencia actual,que permitiría la computación de los estímulos externos, la integracióndel instinto y las emociones o la memoria. Estos procesos son,todos ellos, inconscientes, y precisan una CBE para que los percibael sujeto. El mecanismo que serviría de ‘puente’ entre ambos tiposde procesos, mecanocuánticos conscientes y clásicos inconscientes,sería la actividad eléctrica observada en el EEG, cuando éste sepresenta como actividad coherente estacionaria.Teoría de la conciencia comocoherencia microtubular (Roger Penrose)Las ideas de Penrose a este respecto se presentan en sus libros Lanueva mente del emperador [33], Las sombras de la mente [34]y Lo grande, lo pequeño y la mente humana [35].Para Penrose, son fundamentales dos ideas previas, que engarzandirectamente en su teoría de la conciencia. Estas ideas son:1. El pensamiento matemático y, por extensión, el resto de losprocesos mentales, no se computa, es decir, no puede existirningún programa de ordenador capaz de realizar los mismosprocesos que un ser humano. Aunque no computable, consideraque se trata de un proceso puramente físico.2. La MC es incompleta, en el sentido de que la reducción de lafunción de onda no es un proceso objetivo, sino aleatorio,como hemos visto antes. El autor propone un mecanismo porel que la reducción de la función de estado se realice de maneraobjetiva. Para ello, propone que la unificación de la MCcon la relatividad general dará lugar a una teoría de la gravedadcuántica que permita la eliminación de la aleatoriedad enla MC. Además, igual que ocurre con las otras teorías, paraPenrose resulta fundamental considerar la conciencia comouna actividad global, por lo que cualquier mecanismo quesirva como explicación de la misma debería abarcar, de maneraunificada, numerosas regiones del cerebro.A partir de estas dos ideas, y con una argumentación puramentefísica, Penrose desarrolla, con la utilización del concepto de Hameroffde la computación por microtúbulos, su teoría de la conciencia.Hameroff y Watt [36,37] sugirieron que las moléculas de tubulinaque forman los microtúbulos, formadas por dos subunidades(a y b), podían adoptar, al menos, dos configuraciones distintas. Sise considera que cada una de estas configuraciones podría hacerseequivalente a los dígitos 0 y 1 de la computación binaria, cadamicrotúbulo podría comportarse como un autómata celular, es decir,como un ordenador capaz de llevar a cabo computaciones simplese, incluso, ser capaz de enviar señales complicadas a través suyo.Para Penrose, los microtúbulos permiten aislar lo que hay ensu interior de la actividad aleatoria del exterior. El contenido delos microtúbulos podría así permanecer en un estado de superposicióncoherente a gran escala que se acoplara a las paredes detubulina, de modo que el microtúbulo (paredes e interior) se comportaracomo un computador cuántico. Sin embargo, esta actividadno sólo serviría para realizar cómputos cuánticos, sino que,debido al elevado grado de coherencia, se extendería sobre áreasmuy amplias del cerebro, y daría lugar así a una actividad cuánticaa gran escala, en virtud del efecto de la no localidad cuántica.Durante algunos instantes, estas computaciones cuánticas,extendidas como un único sistema sobre regiones cerebrales extensas,permanecerían aisladas del resto del cerebro. Sería durante estetiempo cuando se produciría el fenómeno de la autoconciencia.Esta actividad coherente, que incluye a la pared, deberá aislarse del resto del citoplasma por medio de una ‘barrera’ de moléculas deagua polarizadas, que garanticen la coherencia durante períodossignificativos. El hecho de que los microtúbulos se unan entre sídentro de la misma célula por medio de puentes de proteínas asociadasa los microtúbulos (MAP, del inglés Microtubules AssociatedProteins), asegura la extensión del sistema a los microtúbulospróximos, de modo que, virtualmente, todos los microtúbulos de lamisma neurona estén en el mismo estado cuántico (y).Penrose utiliza los experimentos de Libet et al [38,39] comoejemplo para demostrar que una persona necesita aproximadamentemedio segundo para ser consciente de un estímulo o pararealizar una tarea motora tras una cognitiva.CRÍTICAS A LAS TEORÍASPueden hacerse numerosas críticas, tanto desde el punto de vistacientífico como filosófico, de estas teorías. Todos los autores indicanla unicidad de la conciencia como un hecho distintivo sobre el quejustifican parte de sus hipótesis. Existe, sin embargo, una serie deexperimentos que merecerían discutirse en relación con la unicidadde la conciencia, como son los resultados de Gazzaniga y Sperry[40-43], y que, por cuestiones de espacio, no se van a discutir en estetrabajo. Además, estos resultados refutarían la hipótesis unitaria,pero en el presente artículo el objetivo es discutir la pertinencia de laMC, y los trabajos de Gazzaniga y Sperry no abordan este problema.Interacción dualista entre el alma y el cuerpoExiste un apriorismo en la teoría que puede resultar suficientepara refutarla: en efecto, el autor considera que determinadasactividades generadas internamente (pensamientos, sentimientos,etc.) son mentales, y se les adscribe una categoría ontológicadiferente de la materia. Por lo tanto, se precisa introducir un enteextramaterial que los explique. Sin embargo, es evidente quedichas actividades internamente generadas podrían tener una explicaciónneurobiológica –el sistema límbico para los sentimientos,determinados circuitos subcorticales inconscientes para lospensamientos que, súbitamente, parecen surgir a la conciencia,etc.–, en cuyo caso, no sería preciso ningún ente espiritual.Por lo que respecta al aspecto formal de la teoría, el concepto decampo de probabilidad resulta equívoco. Se pretende que sea real,pero que no sea material, entendido en sentido amplio. Sin embargo,¿cuáles son las propiedades físicas de dicho campo?, ¿pueden aplicarsesobre dicho campo las operaciones propias de la teoría decampos?, ¿es un campo conservativo?, ¿qué ocurre con ese campotras la muerte del sujeto? Ya que se trata de un campo real, obviamentedebería tener propiedades que le permitieran interaccionar con lamateria; sin embargo, esto le haría perder la inmaterialidad buscada.Otra posibilidad es que se trate de un campo tomado de lateoría cuántica de campos. Sin embargo, esta posibilidad es todavíapeor, porque los campos cuantificados pueden entendersecomo partículas, en algunos casos con tanta masa como un átomode tamaño mediano. Se trata de campos con existencia real y concomportamiento absolutamente material.Una tercera posibilidad, que en mi opinión es la que pretendeutilizar Eccles, es que se trate de un campo nuevo, tanto en sus propiedadesfísicas como en su definición. Se parecería más a una estructuramatemática que a una física, de modo que se pudieran postular laspropiedades necesarias, junto con su existencia, sin que ésta fueramaterial. Sin embargo, un ente similar no reúne propiedades susceptiblesde estudiarse científicamente. Un campo tal, no susceptible derefutación empírica, no entra dentro del campo de la ciencia [44].

    ............. texto demasiado laaaargo.....

    Si alguien quiere leer el artículo completo bien escrito o consultar las dos páginas de bibliografía, que se pase por el enlace. Es de la revista de neurología, no de una web esotérica ni churrosófica. Yo me he limitado a copiar y malpegar la primera parte y paso de corregir errores para que salga un chistoso a soltar su gracia de turno.

    Y añado: No es educado reírse de lo que no se conoce.
    Última edición por jdp; 27-dic-2016 a las 19:16

 

 

Temas similares

  1. Noticias de ciencia.
    Por antavian en el foro Miscelánea
    Respuestas: 2
    Último mensaje: 05-ene-2012, 20:36
  2. Ciencia y valores
    Por RespuestasVeganas.Org en el foro Miscelánea
    Respuestas: 3
    Último mensaje: 09-abr-2011, 21:27
  3. El “Tea Party” y la ciencia
    Por RespuestasVeganas.Org en el foro Miscelánea
    Respuestas: 10
    Último mensaje: 04-nov-2010, 17:49
  4. Ciencia y religiosidad
    Por sujal en el foro Cuentos, Relatos y otros textos
    Respuestas: 13
    Último mensaje: 17-sep-2010, 15:49
  5. Budismo y ciencia.
    Por nekete en el foro Miscelánea
    Respuestas: 14
    Último mensaje: 14-jul-2010, 15:22

Permisos de publicación

  • No puedes crear nuevos temas
  • No puedes responder temas
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •