La Complejidad del Cerebro Humano

El cerebro humano es mucho más complejo de lo que anteriormente se había imaginado.

Lo siguiente es un extracto de Brian Thomas, "Your Brain Has More Memory Than the Internet" (“Tu Cerebro tiene más Memoria que el Internet”), Institute of Creation Research, 4 de febrero de 2016:

Una investigación modeló estructuras diminutas dentro de las células nerviosas y descubrió una táctica inteligente que utiliza el cerebro humano para aumentar la potencia informática y maximizar la eficiencia energética. Su diseño podría formar la base para una clase de computadoras completamente nueva y mejorada. 

Las sinapsis (articulaciones interneuronales) ocurren en las uniones entre las células nerviosas, como dos personas tomadas de la mano. Cada célula puede tener miles de "manos" que se ponen en contacto con otros tantos vecinos para formar una vertiginosa matriz tridimensional de miles de millones de conexiones y vías. Cada unión transfiere información entre las células mediante el paso de pequeñas sustancias químicas llamadas neurotransmisores.

Imágenes innovadoras publicadas en 2011 revelaron que estas conexiones eran mucho más numerosas de lo que jamás antes se hubiera podido imaginar, lo que provocó comparaciones entre el cerebro humano y la cantidad de interruptores existentes en todas las computadoras y conexiones de internet en la tierra. Resulta que los tamaños de estos puntos de conexión, llamados sinapsis, cambian con el uso o desuso; un proceso llamado plasticidad sináptica. Las sinapsis se fortalecen cuando se produce el aprendizaje o se debilitan cuando no se utilizan.

¿Cómo lo hace el cerebro? Almacena y transmite información no con los simples 0 y 1 del código de computadora, sino con grados de fuerza de sinapsis. En otras palabras, no transfieren información con un solo pico de entrada, sino que reconoce 26 niveles claramente diferentes de fuerza sináptica. ... Las células nerviosas utilizan el tamaño y la estabilidad de cada sinapsis para procesar y registrar información, como por ejemplo los recuerdos.

Terry Sejnowski, coautor principal del estudio eLife, dijo al Instituto Salk: “Descubrimos la clave para poder entender el principio de diseño acerca de cómo funcionan las neuronas del hipocampo con baja energía pero alto poder de cálculo. Nuestras nuevas mediciones de la capacidad de memoria del cerebro aumentan las estimaciones conservadoras en un factor de diez hasta al menos un petabyte, que sería más o menos la misma cantidad del anfiteatro de la World Wide Web.

“¿Qué es un petabyte (PB)? Es la unidad e almacenamiento de información y equivale a 1.000.000.000.000.000 bits de información. Los alucinantes niveles de organización y los protocolos regulatorios necesarios en las sinapsis refutan todas las nociones de que el cerebro evolucionó a partir de células individuales, mediante procesos meramente naturales. Las estrategias, algoritmos y principios de diseño que emplea el cerebro solo podrían provenir de un arquitecto de otro mundo, cuyo genio la humanidad solo puede soñar con copiarlo".

Fuente: Way of Life News, 4.12.2020; Redacción: VM-Ar

Porque tú [Dios] formaste mis riñones; me cubriste en el vientre de mi madre. Te alabaré, porque formidable y maravillosamente me formaste; maravillosas son tus obras, y mi alma lo sabe muy bien (Sal 139:13-14).

Buscar