Menu
BLOG DE LA FUNDACIÓN PARA LA INVESTIGACIÓN SOBRE EL DERECHO Y LA EMPRESA




El pasado 22 de febrero Gustavo Deco, Director Center for Brain and Cognition, Theoretical and Computational Group, Universitat Pompeu Fabra / ICREA, participó como ponente en el Grupo de Trabajo: Neurociencia y Derecho donde analizamos el tema Neurocomputación: Modelos computacionales del cerebro. Con motivo de esta sesión, el Prof. Dr. Gustavo Deco ha escrito un artículo sobre los modelos computacionales del cerebro y sus beneficios para comprender el cerebro humano.


Prof. Dr. Gustavo Deco
Prof. Dr. Gustavo Deco
Las enfermedades cerebrales y en particular los trastornos psiquiátricos son dolencias con efectos devastadores, no solo para las personas afectadas, sino también para toda la sociedad, ya que se han convertido en una carga de salud muy grande. Por citar un ejemplo, el trastorno depresivo mayor tiene una prevalencia de vida del 17% y es la principal causa de años perdidos por discapacidad en todo el mundo. Más aún, se predice que será la enfermedad que más contribuya a la carga mundial de enfermedades para el año 2030. Si bien se han producido avances, la escasez de modelos animales satisfactorios y sobre todo la relativa inadecuación de los tratamientos actuales, hace urgentemente necesario el desarrollo de nuevas estrategias de investigación. El modelado computacional del cerebro (completo) es una de las estrategias más prometedoras, y de hecho está teniendo un impacto crucial en nuestra comprensión actual básica del cerebro sano, así como también para su diagnóstico y tratamiento en caso de enfermedad.
 
Recientemente, las técnicas de neuroimagen han permitido acceder a la actividad del cerebro humano en su totalidad, generando grandes expectativas científicas en torno a la posibilidad de profundizar nuestro conocimiento del órgano más importante y distintivo del ser humano. Sin embargo, la mera fenomenología no ha sido capaz de ofrecer explicaciones causales per se, aunque, siguiendo el modelo epistemológico Galileano, sí ofrece la base del desarrollo de modelos mecanísticos teóricos que poseen poder explicativo.
 
Para cumplir con estas grandes expectativas, junto con otros científicos y clínicos, durante la última década desarrollamos un nuevo marco de modelos de cerebro completo cada vez más sofisticados que nos ha permitido obtener una mejor y mucho más detallada comprensión mecanicista de la forma de funcionar del cerebro humano. Estos modelos combinan conectividad estructural y datos de neuroimagen funcional multimodal, junto con modelos generativos sofisticados de la dinámica neuronal en regiones cerebrales. Además, cuidadosas investigaciones sistemáticas de estos modelos cerebrales in silico nos han permitido describir con una precisión abrumadora muchos de los mecanismos que dan lugar a la actividad perceptual, cognitiva y motora del cerebro humano.
 
El marco general de los modelos computacionales de todo el cerebro tiene como objetivo equilibrar complejidad y realismo con el fin de describir las características más importantes de la actividad del cerebro real humano. Este equilibrio no es fácil de establecer, dada la cantidad astronómica de neuronas y la carencia de conocimiento acerca de las características de la conectividad neuronal. Aún así, hemos podido demostrar que el problema es manejable a través del uso de conceptos provenientes de la física estadística. La física estadística ha demostrado que los sistemas físicos macroscópicos obedecen las leyes, independientemente de sus constituyentes mesoscópicos. De hecho, los modelos computacionales de todo el cerebro más exitosos se han basado en estas ideas. Se ha demostrado que el comportamiento macroscópico colectivo emergente de los modelos cerebrales depende débilmente de los detalles del comportamiento neuronal individual. Por lo tanto, los modelos suelen utilizar diversas aproximaciones mesoscópicas de la complejidad del cerebro por medio de redes dinámicas simples y locales que describen un área cerebral. El vínculo entre la estructura anatómica y la dinámica funcional está en el corazón de los modelos de red de todo el cerebro. Los datos de conectividad estructural anatómica se pueden obtener in vivo en la escala de milímetros por medio de neuroimágenes a través de una técnica denominada DTI (Diffusion Tensor Imaging). La dinámica global del modelo de todo el cerebro resulta de las interacciones mutuas de la dinámica local de los nodos generativos acoplados a través de la matriz de conectividad estructural anatómica empírica subyacente, matriz que denota la cantidad de fibras entre un par de áreas corticales extraídas por el DTI. Estos modelos generativos se pueden ajustar a la conectividad funcional de los datos de la serie temporal de neuroimágenes extraídas a través de otra técnica de neuroimagen denominada fMRI (functional Magnetic Resonance Imaging) o MEG (Magnetoencefalografía). En general, estos modelos de todo el cerebro han sido notablemente exitosos en la descripción de los mecanismos cerebrales que subyacen a la actividad espontánea y relacionada con diversas tareas cognitivas.
 
Sin embargo, existen todavía muchas características del cerebro que podrían modelarse mejor refinando la estimación, la precisión y las interacciones en modelos cerebrales. En particular, proponemos una nueva visión de un estado del cerebro basada en la descripción cuantitativa del repertorio dinámico subyacente, como una descripción probabilística de un conjunto de estados posibles. Concretamente, podemos identificar microestados dinámicos del cerebro. Esto permitiría que los patrones recurrentes de coherencia de fase - o microestados - sean detectados y caracterizados en términos de probabilidad de ocurrencia y perfiles de conmutación. Nuestros modelos de todo el cerebro, que unen el esqueleto anatómico subyacente con la dinámica funcional, pueden ajustarse con mucha precisión a la descripción de esta probabilidad en los datos empíricos correspondientes a diferentes estados cerebrales. Además, ya somos capaces de mostrar cómo la estimulación del modelo cerebral puede predecir la transición de un estado cerebral a otro (por ej., de enfermedad a salud en pacientes que responden), abriendo la puerta a poderosas aplicaciones clínicas electromagnéticas y farmacológicas que permitan el restablecimiento de estados cerebrales saludables que promuevan la recuperación homeostática.
 
En conclusión, creemos que para ahondar en nuestro conocimiento del cerebro animal y humano en particular, es estrictamente necesario pasar de la fenomenología a modelos de cerebro completo que puedan ofrecer información causal mecanicista, aspecto fundamental en neurociencia básica y en aplicaciones clínicas tranlacionales.




Miércoles, 18 de Abril 2018 | Comentarios

Fide y la Fundación Garrigues analizaron el pasado 2 de octubre, en sus "Diálogos Ciencia y Derecho", el conocimiento que hemos alcanzado del cerebro y su funcionamiento y la aplicación de las neurociencias al ámbito del marketing, la comunicación y la publicidad.


Sesión Diálogos Ciencia y Derecho: Neuromarketing: Las neurociencias aplicadas al ámbito de la publicidad, el marketing y la comunicación
La sesión tuvo lugar en la sede de Fide. Contamos con la moderación de Alejandro Sánchez del Campo, abogado especializado en nuevas tecnologías e innovación.  

El pasado 2 de octubre, Pedro García Barreno abrió la sesión sobre neuromarketing hablando de los atractores: en los sistemas dinámicos, un atractor es un conjunto de valores numéricos hacia los cuales un sistema tiende a evolucionar, dada una gran variedad de condiciones iniciales en el sistema. Una trayectoria periódica de un sistema puede ser gobernada por más de una frecuencia. Si dos de estas frecuencias forman una fracción irracional (es decir, si son inconmensurables), la trayectoria no se cerrará y el ciclo límite formará un toro (en geometría).

A continuación, se refirió al cerebro, y a cómo este maneja la atención, la emoción y la memoria; a la inteligencia, que consiste en aprender, resolver y decidir; al pensamiento abstracto; a las aptitudes y el talento; al libre albedrío; al comportamiento; a las emociones; y finalmente señaló que el cerebro siente, observa, recuerda.

En relación con el funcionamiento interconectado del cerebro, destacó la importancia del conectoma (el conjunto de las conexiones neuronales), que implica un funcionamiento conectado ante cualquier tarea. También recordó que el cerebro está compuesto de neuronas y glías, hoy se conoce que en una proporción de uno a uno, y que las conexiones entre los dos hemisferios cerebrales se producen mediante sinapsis.

¿Qué células trabajan en el Neuromarketing? En primer lugar, están las células faciales, que permiten el reconocimiento de las caras; las células flinch o de rechazo, que posibilitan la defensa frente a ataques externos (por ejemplo, si te lanzan un objeto a la cara); las células de situación y localización permiten ubicarse en el espacio; y las células espejo o especulares se activan cuando alguien hace un movimiento que conocemos; estas últimas están muy estudiadas en los monos, y las modernas teorías lingüísticas afirman que la adquisición del lenguaje consiste en la realización de movimientos que repiten gestos de otros.

Respecto de la memorización, Pedro García Barreno señaló que cuantos más impulsos de entrada tiene una neurona, más sinapsis se producen, y que la repetición es necesaria para memorizar (memoria próxima y lejana).

En cuanto a la emoción, sostuvo que es una función de los núcleos vasales y del tronco cerebral, y que se pueden localizar sitios donde se almacenan experiencias agradables o desagradables, dependiendo de las células (la pregunta pertinente en el ámbito del neuromarketing sería por tanto cómo se pueden manipular).

Finalmente, se refirió a las tecnologías para estudiar el cerebro que existen en la actualidad:
(i) el electroencefalograma, que recoge impulsos del cerebro en las áreas de funcionamiento;
(ii) el magnetoencefalograma, que consiste en una corriente eléctrica acompañada de un campo magnético;
(iii) la imagen funcional de alto campo; y
(iv) las tomografías de emisión de tropositones.

Ana Lamas, comenzó su intervención definiendo el neuromarketing como la aplicación de las técnicas de la neurociencia al marketing. Su objetivo es conocer y comprender el comportamiento que muestran las personas a diferentes estímulos y que subyacen en la toma de decisiones. De esta manera se trata de explicar el comportamiento desde la base de su actividad neuronal.

El neuromarketing reúne, por tanto, los siguientes elementos: un mayor conocimiento del consumidor (el 49% de los productos que se lanzan al mercado fracasan, y el 60% de los consumidores piensan que no importan a los fabricantes), retorno de la inversión (ROI), utilización de nuevas tecnologías e innovación: el big data permite microsegmentar al consumidor para conocerlo mejor.

¿Qué aporta el neuromarketing? Hasta ahora se utilizaban, como técnicas para conocer al consumidor, los focus groups, la elección simulada, los cuestionarios de preferencia y los estudios de mercado. Pero el neuromarketing va más allá y persigue conocer los procesos de elección que se producen en el consumidor. La primera conclusión es que nuestra primera elección como consumidores es emocional, luego la racionalizamos, y finalmente volvemos a la emoción. Así, el 80% de las decisiones de compra las hace nuestro subconsciente, y solo el 20% nuestro consciente. Esto origina unas diferencias, en ocasiones muy grandes, entre lo que decimos y lo que hacemos y sentimos. Este proceso de decisión consta de una fase de estímulo, otra de procesamiento y otra de respuesta, y en general, el tiempo de decisión de compra es de 2,5 segundos. Lo que el neuromarketing quiere saber es precisamente qué ocurre en esos 2,5 segundos.

Para ello, el equipo de Neurolabs pidió al CSIC que elaborara un software específico. El resultado está basado en la electroencefalografía (EEG), que es el registro de la actividad bioeléctrica del cerebro mediante sensores-conductores que se colocan sobre la cabeza del sujeto, en forma de casco. Dentro de la oferta de técnicas neurocientíficas de obtención de datos, la EEG destaca como la única capaz de monitorizar la actividad cerebral en milisegundos, que es la velocidad a la que operan nuestros pensamientos. Funciona midiendo y testando tres indicadores clave: la atención, la emoción (los mensajes o impactos quedan en lo que se conoce como memoria episódica, que está más directamente conectada con las emociones) y la memoria a corto plazo.

En definitiva, el neuromarketing persigue averiguar a qué estímulos prestan las personas más atención y cuáles no influyen directamente en su comportamiento. En este sentido, tenemos más de 2 millones de estímulos, pero solo nos quedamos con un 1%, y de esto lo importante es lo que retenemos en la memoria. Lo que se trata en este sentido es de comprender más y mejor a las personas, no de manipular en la cabeza de nadie. En definitiva es una poderosa herramienta de marketing que nos va a permitir mejorar la venta de los distintos productos y servicios.

Accede al resumen ejecutivo en formato PDF en este enlace




Lunes, 29 de Enero 2018 | Comentarios

Asunción Peiré García
Asunción Peiré García
Los niños tienen los mismos derechos que los adultos a recibir los mejores tratamientos médicos, y sin embargo no siempre es así. ¿Por qué se ven abocados a esta injusticia terapéutica? Como se sabe, los niños no son “adultos en miniatura” y la respuesta que pueden expresar frente a diversas terapias farmacológicas puede diferir enormemente respecto a la observada en los adultos. Es por ello, y en aras a su seguridad, que durante mucho tiempo fueron o bien excluidos de los ensayos clínicos o bien, directamente se les contraindicaba un determinado medicamento por falta de estudios de seguridad y eficacia en esta población tan vulnerable.

En la terapia farmacológica, históricamente, ha existido un movimiento pendular que ha oscilado desde el permitir administrar cualquier medicamento a los niños (incluidos elixires con un alto contenido de alcohol) hasta su tajante prohibición a mediados del siglo XX (debido  a los trágicos accidentes terapéuticos por desconocimiento de peligrosos efectos en los niños). Desde mediados del siglo pasado, los niños han devenido pues auténticos “huérfanos terapéuticos”.

¿Cuál es el motivo de que un medicamento seguro y eficaz en un adulto puede ser tóxico o no producir los efectos esperados en los niños? No siempre es la dosis. Existen muchos factores que condicionan una respuesta totalmente diferente en Pediatría: un mecanismo de acción distinto (farmacodinamia), un proceso de distribución y metabolismo complejo (farmacodinamia), unos efectos adversos insospechados (farmacodinamia) así como la ausencia de formas farmacéuticas adaptadas a los niños (con riesgo de sobredosificación o alteración por troceado de los comprimidos) que condicionan los efectos farmacológicos.

En efecto, la población pediátrica no es homogénea: abarca desde el nacimiento (con las peculiaridades de los prematuros) hasta el inicio de la edad adulta (los 18 años). No puede compararse la farmacología de un medicamento en un infante de 2 años con la de un niño de 10 años ni con la de un adolescente de 17 años. Desde el punto de vista farmacocinético, la absorción de muchos medicamentos está determinada por la edad. Por ejemplo, en lactantes y párvulos la vía cutánea puede ser tan eficaz (y tóxica) como la vía oral debido a la delgadez del extracto córneo de la piel y la amplia superficie cutánea. De esta forma se han descrito casos de graves anemias hemolíticas por tintes de la ropa (metahemoglobinemia), síndromes de Cushing por cremas de corticoides, trastornos tiroideos por desinfectantes yodados entre otros. No obstante, las mayores diferencias las encontramos a nivel del metabolismo de fármacos. Por metabolismo se entiende aquel proceso de biotransformación que sufre un medicamento con el objeto de modificar su estructura química para que devenga más hidrosoluble y con ello fácilmente excretable. Este proceso se verifica merced a unas enzimas presentes principalmente en el hígado cuya función consiste en activar la molécula en un primer paso (enzimas de hidrólisis, oxidación o reducción) a través del citocromo p450 y, en un segundo paso, incorporar o agregar una molécula con el objeto de hacerla más polar (conjugación con glicina, ácido glucurónico, sulfato, etc). Tanto en la Fase I como en la Fase II existen grandes diferencias metabólicas que justifican la aparición de metabolitos muy tóxicos, inertes o activos a determinadas edades de la vida que no se forman en la edad adulta (en efecto, las enzimas encargadas son distintas y los sutratos de conjugación también lo son).

Mayores diferencias existen sin embargo desde el punto de vista farmacodinámico: la respuesta observada de un medicamento depende en gran medida del Receptor al que se acopla el fármaco para ejercer su acción terapéutica. Se sabe que debido al constante proceso de maduración, algunos receptores no están presentes a determinadas edades, o lo que resulta más sorprendente, la funcionalidad de un mismo receptor cambia con la edad. De esta forma, una sustancia inhibitoria del cerebro como es el GABA (donde actúan medicamento sedantes como las benzodiacepinas ansiolíticas) en las etapas tempranas del desarrollo se comporta como ¡un neurotrasmisor excitatorio!; produciendo convulsiones paradójicas en recién nacidos.

De todo ello se comprende que los efectos adversos de los medicamentos en los niños adquieren un tinte propio que es preciso saber reconocer. Resultan tristemente conocidas las tragedias teraéuticas acontecidas en los niños. De ello se ocupa la Farmacovigilancia, aquella parte de la Farmacología que identifica y valora los efectos de los tratamientos farmacológicos en la población expuesta a los medicamentos. Los niños son más vulnerables por muchos motivos: están sometidos a un constante proceso de crecimiento y desarrollo (somático, psíquico y cognitivo), presentan una peculiar farmacocinética y farmacodinamia, constituyen un grupo de población muy heterógeneo con un rango de edades muy amplio y además, un porcentaje muy elevado de medicamentos se emplean de forma contraria a lo especificado en su Ficha Técnica (uso “off-label”) con las consecuencias que de tal uso se derivan (responsabilidad legal en caso de aparición de un efecto adverso grave). No obstante, ante una enfermedad grave y en ausencia de alternativas terapéuticas, los médicos no nos quedamos de brazos cruzados y tratamos a los pacientes con la mejor evidencia científica (aunque ésta todavía no se recoja en su respectiva Ficha Técnica).

En conclusión, la población pediátrica es singular desde el punto de vista  pediátrico y farmacológico: la respuesta a los medicamentos va a venir condicionada por muchos factores que se hace preciso conocer o al menos anticipar. Ello puede prevenirse con una ética y científica investigación a través de los Ensayos clínicos pediátricos que podrán sentar las bases de una terapia racional y segura.




Viernes, 24 de Noviembre 2017 | Comentarios

Luis Miguel González de la Garza
Luis Miguel González de la Garza
Ha pasado el tiempo por España y la vieja expresión de Miguel de Unamuno “Que inventen ellos” en su polémica originaria con José Ortega y Gasset sigue siendo hoy tan cierta y actual como lo fue en sus orígenes y demuestra una realidad lamentable que, quiérase o no, tiene profundas raíces anteriores a la acuñación de la frase como recordara Ramón y Cajal que, como tópico, ilustra claramente un estado de cosas, un penoso y escandaloso estado de cosas, y no es otro que la Ciencia y la tecnología no han sido en España una preocupación social ni política de primera magnitud sino que han sido vistas de forma completa y absolutamente marginal tanto por la sociedad como por los políticos, que a la postre no son sino una emanación de la propia sociedad.

Los políticos no nos han sido impuestos por una potencia invasora que en venganza por nuestra forma de ser nos castigase con una clase gobernante tan a menudo incompetente e indolente como la que venimos padeciendo. Con anterioridad a Buckle, fueron muchos los extranjeros que atribuyeron nuestra decadencia a la exaltación del principio religioso y al deprecio de las artes útiles, nosotros creemos, como señalamos en otro lugar, y con Douglas North, que el fenómeno religioso es sólo y, tal vez, una parte modesta de la explicación.

Recordemos, entre otras, las observaciones de Montesquieu: “Mirad una de sus bibliotecas (las de España): las novelas por un lado, y la escolástica por otro ¿no es verdad que todo ello parece obra de algún secreto enemigo de la razón humana?" También señalaba Voltaire: “La inquisición y superstición perpetuaron en España los errores escolásticos, las matemáticas fueron tan poco cultivadas de los españoles, que en sus guerras emplearon siempre ingenieros italianos”.

Como señala Juan Ignacio Pérez, existe una relación consistente entre Ciencia y Democracia, así, señala el autor, la fuerte vinculación existente entre la ciencia y la democracia y el origen común de la ciencia moderna y la ideología liberal, ideología que a la postre sería la que inspirase la configuración de los sistemas democráticos modernos y, de forma especial, las nociones acerca de la soberanía popular, la división de poderes y la libertad de credo. La filosofía política que inspiró el posterior desarrollo de los estados democráticos fue producida por un conjunto de pensadores que, o bien eran científicos (filósofos naturales) o reconocían de forma explícita la gran influencia que aquéllos habían ejercido en su propio pensamiento, pensadores como John Locke político y científico miembro de la Royal Society, Baruch Spinoza, entre otros muchos, Washington, por ejemplo, tenía un gran respeto por la ciencia, en España por las razones anteriormente apuntadas apenas hubo ideología liberal y apenas hubo Ciencia, existe una relación entre la Ciencia y la búsqueda de los argumentos verdaderos y la democracia y sus valores emancipatorios, unas condiciones que sólo en sociedades libres y abiertas se puede lograr, como señala Mark Brown, las democracias dependen de la Ciencia para abordar eficazmente los problemas públicos, y muchos argumentan que la Ciencia proporciona un modelo de deliberación democrática racional.

Una sociedad, un Estado que no comprende la importancia que la Ciencia y la técnica juegan en la evolución de los pueblos es una sociedad profundamente inculta y un Estado completamente inconsciente y obtuso, pero esa ha sido y es en realidad la línea que ha seguido nuestra “superficial” sociedad de la que han “emanado” unos dirigentes no mejores que la sociedad misma de la que provienen, lo que es lógico, como recordara Benjamín Constant quien precisara que siendo iguales las demás cosas, siempre es verosímil que los gobernantes tengan opiniones menos atinadas, menos sanas, menos imparciales que los gobernados, lo cual es fuerza reconocer que en España parece completamente cierto.

No cabe duda que el camino de la Ciencia y de la técnica es un camino difícil y esforzado, arduo, que exige de los pueblos seriedad, formalidad, constancia y disciplina, trabajo intenso en suma, siembra temprana y resultados tardíos, que exige una organización de la sociedad distintita de la española, pero que a la postre es la única forma de actividad que consolida naciones y Estados que se pueden considerar orgullosos de sus aportaciones al mundo, por una parte, y generan una industria que no depende de las bondades del clima, sino que crean las condiciones materiales reales para modificar el entorno en el que viven y se desarrollan los seres humanos fomentando el “progreso” real de la humanidad mediante la resolución de problemas reales acuciantes. Mientras que esa idea no entre como un credo, como un dogma, en las cabezas de todos los ciudadanos de un pueblo, ese pueblo estará condenado a servir a los demás pueblos. No debemos olvidar que el turismo es una forma de servidumbre (servicio) explotando un recurso natural que el servicial en nada ha ayudado a crear, tan sólo administra.

La cultura, tal y como se la percibe en nuestro país, no es sólo ni únicamente la literatura, el teatro, el cine y las artes plásticas y escénicas, todas estas manifestaciones y actividades de menor complejidad comparadas con las ciencias duras y todas ellas anudadas, de una forma u otra, a diversas manifestaciones de ocio que debe evolucionar mediante una sensibilización de la sociedad. La Ciencia, es cultura fuera de nuestras fronteras y en tanto en cuanto éste hecho no se advierta y comprenda claramente no habrá forma de remontar en nuestra secular postración intelectual, ya que no existe una visión en España de la Ciencia como una parte esencial de la cultura que interiorizada por nuestra comunidad disfrute del gusto y la pasión por la Ciencia y la obra científica. Si no se puede ser libre sin conocer la realidad que nos circunda, sólo la Ciencia nos dará, también, esa libertad individual y colectiva. 




Domingo, 19 de Noviembre 2017 | Comentarios

Luis Miguel González De La Garza
Luis Miguel González De La Garza
Hemos vivido en el mundo un punto de inflexión en lo que respecta a la protección del derecho a la privacidad y al secreto de las comunicaciones electrónicas, y ese momento tiene un claro origen en los atentados terroristas del 11 S en los Estados Unidos producidos en el año 2001, desde ese momento, se han invertido invariablemente la protección de estos derechos. El terrorismo ha conseguido transformar nuestras sociedades, de sociedades abiertas y en general libres, en sociedades con miedo, en las que se sacrifican amplias parcelas de libertad a una incierta seguridad en la que, como acuñara el teólogo alemán Hermann Busenbaum, cum finis est licitus, etiam media sunt licita, una vuelta o una reedición contemporánea de lo que se puede definir como Estado Neopolicía de Derecho en el que la sospecha generada por la incerteza del temor y un enemigo difuso hace posible búsquedas proactivas de sospechosos virtuales, drenando de contenido y sustancia, menguando en suma, Derechos medulares de una concepción liberal de Estado de Derecho vigoroso donde la presunción de inocencia cede frente a la mera sospecha. Esa pérdida es aceptada o al menos consentida por la sociedad acríticamente como ya advirtiera de alguna forma Étienne de la Boétie, más por ignorancia, advirtamos, que por otras circunstancias, pero lo cierto es que son circunstancias las de la vigilancia sistemática y el control de todas las actividades de los ciudadanos en las redes virtuales de una gravedad, pensamos, que extrema porque socaban los fundamentos de la libertad y con esta de la democracia, al ser precondiciones de otros derechos fundamentales y libertades públicas como la libertad de expresión ¿es posible una opinión pública libre en un medio que se basa en la vigilancia permanente de todo y de todos? Como advirtiera Benjamin Franklin “Quien renuncia a su libertad por seguridad, no merece ni libertad ni seguridad”.

Parafraseando a Rousseau en el Capítulo VI, del Libro I del Contrato Social, sería preciso: “Encontrar una forma de uso de los datos personales por la que se defienda y proteja con la fuerza común del Derecho nacional e internacional la persona y su dignidad en su dimensión virtual, y por la cual cada uno, uniéndose a todos, no pierda su individualidad, intimidad y secreto de sus comunicaciones permaneciendo y respetándose de forma integral la esfera  de todos sus datos sin fragmentación alguna –su yo cuantificado- de la misma forma en la que se protege en su dimensión no virtual".

 Es claro que se hace urgente en un mundo global, un sistema de justicia global compuesto por un sistema judicial internacional cada vez más eficiente.

Las rupturas quizás más graves que afectan a los derechos humanos se basan en las discontinuidades jurídicas que los Estados presentan frente al concepto de no nacional o extranjero al cual se le inaplican las garantías para los nacionales en un entorno global.

Es esta desprotección de los datos personales la que ha hecho posible un uso de estos que permite construir nuevos paradigmas hasta ahora inexistentes, como la propaganda electoral cognitiva y el microtargeting basados en los perfiles psicométricos elaborados con esa materia prima –los datos personales- que son capaces de definir con precisión casi quirúrgica los perfiles humanos de las “dianas electorales” y reelaborar por completo los conceptos clásicos de propaganda electoral, con la aparición de nuevos instrumentos que son susceptibles de adaptarse a lo que desea escuchar cada tipo de personalidad que opera en las redes con una granularidad jamás alcanzada antes. Ni que decir tiene que las normas jurídicas electorales habrán de adaptarse necesariamente a las nuevas estrategias posibles y que ya han sido empleadas en escenarios reales como en los Estados Unidos y, singularmente, y con modelos técnicamente acabados en las elecciones presidenciales de 2016 en las que resultó vencedor Donald Trump quien hizo un uso extenso e intenso de las nuevas tecnologías de procesamiento de la información, revolucionando silenciosamente la forma de la propaganda electoral virtual electrónica de un futuro que ya es presente. La igualdad de oportunidades en las competiciones electorales, la dignidad con la que deben ser tratados los seres humanos -que la tecnología ha transformado en una vulgar mercancía electoral- y la protección de los datos personales y la privacidad de las personas exigen una reelaboración profunda y consistente de las garantías jurídicas en las que consisten en el fondo los derechos fundamentales considerados y sin las cuales los derechos son sólo nombres huecos sin referentes precisos accionables ante la justicia en una nueva y compleja ecología de medios tecnológicos de procesamiento y comunicación de la información.  




Lunes, 11 de Septiembre 2017 | Comentarios

1 2 3 4
Blog de la Fundación Fide y la Fundación Garrigues
Fide
Eduardo Martínez de la Fe
Antonio Garrigues Walker, Francisco J. Ayala, Cristina Jiménez Savurido, Pedro García Barreno y Fernando Vives.

La Comisión Ciencia y Derecho está presidida por Francisco J. Ayala, Ayala School of Biological Sciences, University of California, y dirigida por Antonio Garrigues Walker, Presidente de la Fundación Garrigues, Cristina Jiménez Savurido, Presidente de Fide, y Pedro García Barreno, Doctor en Medicina y catedrático emérito de la Universidad Complutense.


Introducción del Blog

En este blog se recogen artículos y reflexiones generados dentro de los diálogos Ciencia-Derecho de Fide. Estos diálogos están presididos por la Comisión Ciencia y Derecho. Se trata de un blog colectivo en el que los profesionales que participan de manera regular en estos diálogos compartirán sus reflexiones.