Menu

BLOG DE LA FUNDACIÓN PARA LA INVESTIGACIÓN SOBRE EL DERECHO Y LA EMPRESA





Luis Miguel González De La Garza
Luis Miguel González De La Garza
Hemos vivido en el mundo un punto de inflexión en lo que respecta a la protección del derecho a la privacidad y al secreto de las comunicaciones electrónicas, y ese momento tiene un claro origen en los atentados terroristas del 11 S en los Estados Unidos producidos en el año 2001, desde ese momento, se han invertido invariablemente la protección de estos derechos. El terrorismo ha conseguido transformar nuestras sociedades, de sociedades abiertas y en general libres, en sociedades con miedo, en las que se sacrifican amplias parcelas de libertad a una incierta seguridad en la que, como acuñara el teólogo alemán Hermann Busenbaum, cum finis est licitus, etiam media sunt licita, una vuelta o una reedición contemporánea de lo que se puede definir como Estado Neopolicía de Derecho en el que la sospecha generada por la incerteza del temor y un enemigo difuso hace posible búsquedas proactivas de sospechosos virtuales, drenando de contenido y sustancia, menguando en suma, Derechos medulares de una concepción liberal de Estado de Derecho vigoroso donde la presunción de inocencia cede frente a la mera sospecha. Esa pérdida es aceptada o al menos consentida por la sociedad acríticamente como ya advirtiera de alguna forma Étienne de la Boétie, más por ignorancia, advirtamos, que por otras circunstancias, pero lo cierto es que son circunstancias las de la vigilancia sistemática y el control de todas las actividades de los ciudadanos en las redes virtuales de una gravedad, pensamos, que extrema porque socaban los fundamentos de la libertad y con esta de la democracia, al ser precondiciones de otros derechos fundamentales y libertades públicas como la libertad de expresión ¿es posible una opinión pública libre en un medio que se basa en la vigilancia permanente de todo y de todos? Como advirtiera Benjamin Franklin “Quien renuncia a su libertad por seguridad, no merece ni libertad ni seguridad”.

Parafraseando a Rousseau en el Capítulo VI, del Libro I del Contrato Social, sería preciso: “Encontrar una forma de uso de los datos personales por la que se defienda y proteja con la fuerza común del Derecho nacional e internacional la persona y su dignidad en su dimensión virtual, y por la cual cada uno, uniéndose a todos, no pierda su individualidad, intimidad y secreto de sus comunicaciones permaneciendo y respetándose de forma integral la esfera  de todos sus datos sin fragmentación alguna –su yo cuantificado- de la misma forma en la que se protege en su dimensión no virtual".

 Es claro que se hace urgente en un mundo global, un sistema de justicia global compuesto por un sistema judicial internacional cada vez más eficiente.

Las rupturas quizás más graves que afectan a los derechos humanos se basan en las discontinuidades jurídicas que los Estados presentan frente al concepto de no nacional o extranjero al cual se le inaplican las garantías para los nacionales en un entorno global.

Es esta desprotección de los datos personales la que ha hecho posible un uso de estos que permite construir nuevos paradigmas hasta ahora inexistentes, como la propaganda electoral cognitiva y el microtargeting basados en los perfiles psicométricos elaborados con esa materia prima –los datos personales- que son capaces de definir con precisión casi quirúrgica los perfiles humanos de las “dianas electorales” y reelaborar por completo los conceptos clásicos de propaganda electoral, con la aparición de nuevos instrumentos que son susceptibles de adaptarse a lo que desea escuchar cada tipo de personalidad que opera en las redes con una granularidad jamás alcanzada antes. Ni que decir tiene que las normas jurídicas electorales habrán de adaptarse necesariamente a las nuevas estrategias posibles y que ya han sido empleadas en escenarios reales como en los Estados Unidos y, singularmente, y con modelos técnicamente acabados en las elecciones presidenciales de 2016 en las que resultó vencedor Donald Trump quien hizo un uso extenso e intenso de las nuevas tecnologías de procesamiento de la información, revolucionando silenciosamente la forma de la propaganda electoral virtual electrónica de un futuro que ya es presente. La igualdad de oportunidades en las competiciones electorales, la dignidad con la que deben ser tratados los seres humanos -que la tecnología ha transformado en una vulgar mercancía electoral- y la protección de los datos personales y la privacidad de las personas exigen una reelaboración profunda y consistente de las garantías jurídicas en las que consisten en el fondo los derechos fundamentales considerados y sin las cuales los derechos son sólo nombres huecos sin referentes precisos accionables ante la justicia en una nueva y compleja ecología de medios tecnológicos de procesamiento y comunicación de la información.  




Lunes, 11 de Septiembre 2017 | Comentarios

Fide y la Fundación Garrigues, analizaron el pasado 20 de junio, en sus Diálogos Ciencia y Derecho, la moralidad, desde el punto de vista de biólogos y filósofos.


Imagen tomada durante la sesión
Imagen tomada durante la sesión
Francisco Ayala inició su intervención, comentando que para los filósofos la moralidad es resultado de la cultura humana y de la fe religiosa, lo que explicaría que los diferentes grupos humanos tengan distintos conceptos de moralidad. Los biólogos consideran que la moralidad es fruto de la evolución biológica, de forma que todos los humanos tendrían valores morales. El Profesor Ayala señaló, que estas dos posturas aluden a problemáticas diferentes: por un lado estarían los juicios morales, que suponen la capacidad de juzgar las acciones como buenas o malas, lo que es una cuestión biológica y por otro lado estarían los códigos morales, que son normas que permiten juzgar las acciones, y que derivan de las experiencias culturales y religiosas.

Respecto a cuestiones como si está la capacidad ética de los seres humanos determinada por su naturaleza biológica?; ¿están los códigos de normas éticas determinados por la naturaleza biológica humana?, Ayala propone que los humanos son seres éticos por su naturaleza biológica: los humanos evalúan su comportamiento como correcto o incorrecto, moral o inmoral, como consecuencia de sus eminentes capacidades intelectuales, que incluyen la autoconciencia y el pensamiento abstracto. Pero las normas morales según las cuales evaluamos acciones particulares como moralmente buenas o malas son productos de la evolución cultural, no de la evolución biológica. Para poder realizar juicios morales, indicó que son necesarias las siguientes condiciones: capacidad de anticipar las consecuencias de las acciones propias, la capacidad de hacer juicios de valor y el libre albedrío.

Respecto a la evolución cultural, el Prof. Ayala señaló que la adaptación "es mucho más eficiente que la adaptación biológica. Es más rápida, tiene mutaciones diseñadas y las nuevas adaptaciones no requieren reemplazar a las previas". En todo caso, la evolución cultural es mucho más rápida que la biológica y puede abarcar menos de una generación. Las mutaciones culturales son diseñadas (frente a las biológicas, que son espontáneas) y acumulativas. Francisco Ayala destacó que en los últimos milenios la humanidad se ha adaptado cambiando el ambiente de acuerdo con las necesidades de sus genes, más que cambiando sus genes de acuerdo con las necesidades del ambiente. En cuanto a los códigos morales, Ayala insistió en que son producto de la evolución cultural, y -al igual que la evolución biológica- requieren: variación entre individuos, variación entre grupos y variación histórica.

 
 

Accede al Resumen completo de la sesión en este link.    
 

Accede a la presentación utilizada durante la sesión en este link.





Viernes, 7 de Julio 2017 | Comentarios

Fide y la Fundación Garrigues analizaron el pasado 22 de marzo, en sus "Diálogos Ciencia y Derecho", los cambios en el concepto de enfermedad. Hablamos, entre otros grandes temas, de los aspectos legales y éticos que se derivan de la aplicación de la medicina personalizada.


Imagen tomada durante la sesión
Imagen tomada durante la sesión
 
La sesión tuvo lugar en la sede de Fide. Antonio Garrigues Walker, Presidente de la Fundación Garrigues, presentó la sesión y contamos con la moderación de Pedro García Barreno, Doctor en Medicina. Catedrático emérito de la Universidad Complutense.
 
Ángel Carracedo comenzó su exposición refiriéndose al concepto de medicina personalizada, que se remonta a los años 50, cuando se observó que administrando los mismos fármacos a diferentes personas se producían reacciones diferentes (a modo de ejemplo señaló que algunos pacientes no metabolizaban la anestesia). De la farmacogenética se pasó a la farmacogenómica, que desde los años 90 estudia las bases moleculares y genéticas de las enfermedades para crear fármacos a la medida de cada paciente y adaptados a sus condiciones genómicas. Desde el año 2000 se ha desarrollado el concepto de medicina personalizada, que trata de buscar el fármaco adecuado al individuo y a la enfermedad mediante la integración de biomarcadores, y a partir de 2015 el de medicina de precisión.
 
El auge actual de la medicina personalizada está relacionado con la complicación que conlleva para la industria farmacéutica introducir nuevos fármacos en el mercado, puesto que únicamente se aprueba un nuevo fármaco cuando es menos tóxico y más eficaz que los que ya existen en el mercado. A este respecto, el ponente recordó que la eficacia curativa media de un fármaco es del 55%, y las reacciones adversas a un medicamento siguen siendo entre la cuarta y la sexta causa de muerte en los países desarrollados. A esta problemática se la conoce como la paradoja del fármaco moderno (paradox of modern drug development).
 
La principal razón para la diversidad de respuesta a los fármacos y los efectos adversos  de los fármacos se encuentra en nuestra diversidad como seres producto de la evolución. Aunque la especie humana al ser relativamente reciente tiene aún poca variación,  algunas manifestaciones de la variedad humana se encuentran en el cromosoma 6, cuya composición determina la respuesta inmunitaria del receptor en trasplantes; o en las enzimas CYP, principales implicadas en el metabolismo del fármaco, que pueden dar lugar a metabolizadores ultrarápidos para quienes los medicamentos no son eficaces a dosis habituales o lentos, más propensos a tener reacciones adversas. Pero la mayor razón de la falta de eficacia es la heterogeneidad de la enfermedad. El error es asimilar el síntoma con la enfermedad y considerar ésta como un todo único. Por ejemplo, si abordamos la fiebre como síntoma de una infección y administramos antibiótico, pero solo estamos tratando el 20% de sus causas. La solución a este problema es la estratificación de la enfermedad, separar las causas y no mezclarlas y para ello necesitamos biomarcadores. Esta idea está siendo impulsada actualmente desde la industria farmacéutica y es la base de la medicina personalizada.
 
Para buscar esos biomarcadores de estratificación de la enfermedad (esto es de dividirla por sus causas) podemos analizar la variación germinal (esto es la que tenemos de nacimiento) o en el cáncer la variación somática (esto es las mutaciones que se van acumulando durante el proceso canceroso a nivel del tejido afecto).
 
Para la primera los más eficaz han sido los estudios de asociación de todo el genoma (GWAS, Genome Wide Association Studies) mediante “SNPs” (Single Nucleotide Polymorphism, o Plomorfismo de Nucleótido Simple) como  marcadores genéticos ideales. En esta línea de investigación han aparecido hallazgos inesperados, como que la esquizofrenia es, en parte, una enfermedad autoinmune; y se han encontrado muchos biomarcadores de respuesta a tratamientos y no solo farmacológicos, como en la radioterapia de próstata, en la se ha observado que algunos enfermos se curaban de cáncer, pero morían después por la toxicidad radiológica, y se han encontrado por estudios GWAS biomarcadores que predicen esos efectos secundarios (la radiotoxicidad, en este caso) que son vitales a la hora de afrontar un tratamiento en un paciente concreto.
 
En segundo lugar las técnicas de secuenciación de genomas completos que están permitiendo encontrar las causas de muchas enfermedades con un componente genético importante como al autismo,  en el que ya se demostrado una relación con más de 200 genes. Es decir de una enfermedad común única se ha dividido en 200 entidades diferentes.
 
Como consecuencia de lo anterior, la tendencia apunta a que toda enfermedad común va a ir dividiéndose en entidades menores que poco a poco irán teniendo tratamientos específicos y más caros. Se espera que en los próximos 10 años haya más de 1.000 fármacos y tratamientos nuevos disponibles para enfermedades raras.
 
Por otra parte, el mencionado cambio de paradigma va a permitir predecir el riesgo de algunas enfermedades a nivel poblacional. La parte negativa de este aspecto es que probablemente aflorarán multitud de productos relacionados con la predicción de enfermedades, poco útiles y no regulados, lo que puede suponer un problema grave. Por ello, se debe abordar la regulación por las agencias de medicamentos competentes.
Actualmente es obligatorio o conveniente por parte de las principales agencias reguladoras (EMA y FDA) el empleo de biomarcadores en más de 80 medicamentos y como tal viene reflejado en las correspondientes fichas técnicas de los mismos. Se hace vital una educación del personal facultativo en estos aspectos y una adecuada traslación de los avances a los pacientes, para que se beneficien de ellos.
 
Finalmente, Ángel Carracedo señaló algunas reflexiones adicionales, como que la valoración del coste-beneficio de los estudios asociados con la medicina personalizada es vital pero no es un problema científico ni de regulación, sino que atañe a las clínicas privadas y al sistema de salud; que los marcadores de genómica deberán integrarse con otros biomarcadores (proteómica, microbioma) para ofrecer una mejor solución al paciente; y que actualmente se están trasladando algunos mensajes erróneos a los pacientes por lo que es necesario reflexionar sobre cómo cambiar esta situación, mejorando la información al paciente e incorporando estas cuestiones en la formación de los profesionales médicos.
 
Accede a la presentación utilizada durante la sesión aquí 
 




Jueves, 22 de Junio 2017 | Comentarios

Luis Fernández Antelo
Luis Fernández Antelo
"El futuro ya está aquí" hace mucho que dejó de ser una línea de la canción más fresca de Radio Futura para convertirse en una suerte de advertencia que, por desgracia, muchos ignoraron, escondiendo la cabeza en el suelo pensando que ese futuro desaparecería si se ignoraba con la suficiente vehemencia. Por el contrario, lejos de desaparecer, este futuro redobló su velocidad hasta desbocarse y atropellar a un buen número de actores de la sociedad. Entre ellos, a muchos profesionales jurídicos y, quizás, al Derecho mismo. De tal modo, materias como la bioética, la genética, la inversión bursátil  o la Inteligencia Artificial irrumpieron con tanta fuerza -para quedarse- que la única línea de contención resultó ser la necesidad de una rápida aprehensión por parte de los profesionales, habiendo de recurrirse en muchos casos a la renovación de principios y teorías clásicas. 

Este es el caso de la Inteligencia Artificial y su impacto en el ámbito jurídico, sobre todo, en lo atinente a las categorías de responsabilidad. El encargo de una ponencia jurídica impartida hace poco en el Fablab de Burgos, a un público en su mayoría integrado por makers, programadores y beta testers, fue la excusa perfecta para ordenar una serie de ideas que rondaban hace bastante en mi cabeza, todas relativas a la exigencia de responsabilidad derivada de daños causadas por máquinas. No el deus ex machina, sino la Machina ex Deus. En principio, parecería que la introducción de pautas normativas de responsabilidad objetiva para determinados supuestos (al modo del art. 10 del Real Decreto 1090/201 , de 4 de diciembre, por el que se regulan los ensayos clínicos con medicamentos) podría ser una respuesta eficiente ex ante, a modo de prevención general. Pero, al final, siempre termina surgiendo el problema de la responsabilidad subjetiva. Una subjetividad que, empero, la técnica ha diluido tanto que hace imprescindible acuñar nuevas categorías jurídicas para dar respuesta a los interrogantes que surgirán ante daños causados por mecanismos guiados, inter alia, por la inteligencia artificial.

Nuevas categorías o, quizás, vuelvan a bastar las antiguas.

El ejercicio de la jurisdicción enseña que los supuestos más técnicamente complejos sometidos a los Tribunales requieren, para su satisfactoria resolución, de un proceso trifásico de intelección, identificación de responsabilidades y aplicación de principios generales que, en el mundo tecnológico, se da en una relación de proporcionalidad directa. Así, cuanto más compleja es la cuestión fáctica, más probable es que su solución resida en la aplicación de los principios generales del Derecho más esenciales. 

Imaginemos un accidente causado por un avión que aterriza autónomamente mediante inteligencia artificial (o un tren, o un coche… hipótesis que hace mucho dejaron de serlo).

Sigamos imaginando, en paralelo, la enfermedad surgida en un adolescente posiblemente consecuencia de una mutación genética operada en su ADN por un genetista que optó por editar el genoma en un momento en que la técnica y los ensayos no habían arrojado resultados concluyentes al respecto.

Terminemos de imaginar, en fin, el fallo de una Agencia de Rating provocado por defectos en la programación de los algoritmos destinados a gestionar la entropía de unos activos financieros especialmente inestables, que ha llevado a todo un sector de inversores a la ruina.

Todas estas hipótesis coinciden en dos factores: uno, la existencia de un daño real que no puede ser imputado directamente a un actor volitivo concreto, y dos, la coincidencia no solo de distintas causas, sino de distintos actores en la producción del resultado.
 
La puesta en marcha de una concreta inteligencia Artificial no es el resultado de una sola mente, sino de varias: los programadores, los suministradores de información en el aprendizaje digital, los beta testers, los titulares del software, distribuidores y retailers… incluso los órganos públicos encargados de aprobar el mismo pueden coincidir como posibles concausantes del resultado dañoso que una Inteligencia Artificial pueda provocar, lo cual se acentúa en lo atinente a materiales y software de doble uso, civil y militar. Un robot cirujano, un vehículo autónomo, ciertos drones… deciden en base a la información que les ha sido previamente introducida por alguien y con sustento en complejísimos algoritmos diseñados por personas.

Es en este estadio donde debieran revitalizarse las categorías de dolo y la figura del garante propia de los ilícitos (no solo penales) cometidos por omisión, para ser actualizadas y dar respuesta a la exigencia de identificación, individualización, concreción, distribución y exacción de responsabilidades, erigiendo a determinado actores esenciales de la Inteligencia Artificial en garantes de las consecuencias nocivas de la misma o, cuando menos, estableciendo categorías de dolo especiales, propias y adecuadas a los nuevos estadios de las nuevas tecnologías. 

De este modo, ya no se hablará solo de dolo eventual, culpa consciente, responsabilidad in eligendo o in vigilando, sino que habrán de crearse nuevas categorías de culpa y dolo: in secuenciando o in editando (genéticamente); in experimentando, in programando, in testeando… incluso categorías de responsabilidad adaptadas a las herramientas sociales y uso de programas de subida (uploading), alojamiento y compartición de archivos e información, todas  necesarias ya. Sin dilación, a riesgo de quedar, si cabe, más rezagados todavía en esta esencial carrera por el mantenimiento de la soberanía del Derecho, esta vez en una sociedad más global que nunca, cual es la sociedad digital.

Cabe concluir del mismo modo que se comenzó. El futuro ya está aquí, y solo se puede gestionar jurídicamente recreando categorías e instituciones que siempre han estado aquí, mucho antes que ese futuro que se nos ha impuesto por imprevisión. Solo así se podrá mantener la posibilidad de vigencia del Derecho en un mundo en que la nueva aristocracia del poder estará formada de makers, freaks del MIT y beta testers.




Lunes, 29 de Mayo 2017 | Comentarios

Ignacio Ayerdi, Ex-Presidente Philips Iberica.
Ignacio Ayerdi, Ex-Presidente Philips Iberica.
A pesar de los fantásticos logros conseguidos, en el último siglo, por los Sistemas Sanitarios, hay una preocupación global sobre su sostenibilidad. El Sistema Sanitario de un país es uno de sus Activos más importantes por el impacto que tiene en la salud de la población, su efecto en la reducción de desigualdades y en definitiva por su contribución al bienestar social y económico de sus ciudadanos. 

El futuro de la sanidad es uno de los temas más candentes en nuestra sociedad. Los sistemas sanitarios y su ecosistema (industria farmacéutica, tecnología médica, etc.) han dado lugar a crear el sector más relevante del mundo de los Servicios, no sólo por la valoración de los ciudadanos sino  por su contribución al PIB de los países. Es un sector muy innovador, que genera muchos puestos de trabajo y muy cualificados. Preservarlo es una tarea que nos concierne a todos.

A pesar de las bondades de los actuales sistemas, el modelo sanitario tradicional está en cuestión; se enfrenta a retos formidables: un radical cambio epidemiológico, una explosión de innovaciones científicas y tecnológicas sin parangón y a una sociedad/ciudadanía más exigente. La actual estructura del gasto sanitario, no parece la más idónea; está muy sesgada hacia los pacientes crónicos, especialmente los pluripatológicos y con muy poca inversión en prevención. En España, acaba de publicarse, que las enfermedades crónicas que padecen el 50% de los mayores de 65 años copan el 75% del gasto sanitario, en los países de nuestro entorno la foto es similar. El sistema está fragmentado, tiene un foco demasiado orientado a lo episódico y poco a la continuidad asistencial, incentiva más la actividad que el valor de las actuaciones.

El gasto sanitario viene creciendo en las últimas décadas 2 puntos por encima del PIB en los países de la OECD, tendencia que pone en cuestión la sostenibilidad del sistema. La crisis económica ha impulsado medidas cortoplacistas de reducción del gasto sanitario que ha logrado contenerlo pero a expensas de una pérdida de calidad-excluyendo acciones positivas de eliminar actuaciones innecesarias-. El aumento constante de la esperanza de vida y el éxito en el tratamiento de los episodios agudos de salud prolonga la vida de las personas pero con frecuencia transforma la enfermedad  en crónica, va a magnificar el problema. Además una parte importante del gasto (algunas estimaciones lo sitúan en un 30%) se dedica a procedimientos diagnósticos y terapéuticos de poco valor o innecesarios.
La sanidad está muy regulada y la Política Sanitaria de un país tiene un papel clave que cumplir en su transformación.

El mantra global es que hay que moverse  hacia una medicina basada en el Valor que aporta al paciente, donde las tres Ps  son claves: Prevención, Precisión y Personalización. Las últimas innovaciones disruptivas en las tecnologías TIC´s: Big Data, Análisis de Datos, Sensores llevables, Internet de las Cosas, Realidad Virtual y la Inteligencia Artificial  tienen la potencialidad de abordar con éxito estos desafíos.

Quiero destacar varias iniciativas recientes que apuntan en esta línea:

•    Kayser Permanente, que no es una organización virtual como Uber, Amazon o Airbnb, porque tiene 38 hospitales y 700 clínicas, está explorando nuevas formas de relación  con sus pacientes, recientemente la cifra de sus pacientes que interactúan con los médicos por vía digital ha sobrepasado (52%) a los que utilizan la vía  presencial. Esta tendencia además de disminuir costes del sistema refuerza la responsabilidad del ciudadano con su salud.

•    Google maps for Health,  está lanzando el Proyecto Baseline, un estudio longitudinal de Salud, de 4 años, diseñado con las Universidades de Duke y Stanford, en el que han enrolado 10,000 pacientes para comprender mejor cómo se produce la transición  de estar sano a enfermo. Los participantes, a quienes se secuenciará su genoma, llevarán unos “sensores llevables” que registrarán a diario múltiples señales fisiológicas y ambientales. Los investigadores esperan que esa información ayude a identificar signos precoces de enfermedad. Este proyecto impulsará una medicina más predictiva y preventiva 

•   Lancet, Planetary Health, Proyecto que quiere eliminar las barreras existentes entre las disciplinas de Ciencias de la Salud, Ciencias de la Naturaleza y la Física para asegurar un futuro más saludable y sostenible. La ciencia médica está basada en comprender lo sistemas dentro del cuerpo humano, esta iniciativa ensancha la visión al incluir sistemas externos que amenazan o sostienen la salud humana; potencia en definitiva la Inteligencia Colectiva

Implementar estas innovaciones en los Sistemas Sanitarios puede hacer que la experiencia del paciente sea radicalmente distinta, con más prevención, con un diagnóstico y tratamiento más rápido, con una estancia hospitalaria más corta y una vida independiente más larga. Si el paciente retorna al hospital, llevará consigo la evolución de sus datos vitales, captados por los “sensores llevables”. Los datos se integrarán en la historia clínica que dará una visión de largo recorrido de su salud en vez de una información episódica del día que visita al médico.

No podemos olvidar que estas innovaciones tienen por delante retos como su interoperabilidad, la protección de la privacidad, la seguridad; ni tampoco ignorar que si bien los profesionales sanitarios adoptan rápidamente las innovaciones verticales (aplican a su área de competencia: fármacos, equipos de imagen…) son mucho más reticentes con las innovaciones horizontales (aplican a todos los sectores: rueda, máquina de vapor, internet…).

Las organizaciones sanitarias tienen un gran reto por delante para innovar en su organización, formar a sus profesionales sanitarios en estas tecnologías e incorporar profesionales de las TIC's al sector sanitario. 

La tarea es ingente y requiere la colaboración de los distintos agentes del Sistema para que la transición se gestione adecuadamente y poder construir un sistema sanitario y social más proactivo, integrado e innovador, centrado realmente en las necesidades de los ciudadanos. Más resolutivo desde  los primeros niveles, con la ambición de la triple meta: 
Aumentar la calidad/ Mejorar la experiencia del paciente/ Reducir costes




Jueves, 18 de Mayo 2017 | Comentarios

1 2 3
Blog de la Fundación Fide y la Fundación Garrigues
Fide
Eduardo Martínez de la Fe
Antonio Garrigues Walker, Francisco J. Ayala, Cristina Jiménez Savurido, Pedro García Barreno y Fernando Vives.

La Comisión Ciencia y Derecho está presidida por Francisco J. Ayala, Ayala School of Biological Sciences, University of California, y dirigida por Antonio Garrigues Walker, Presidente de la Fundación Garrigues, Cristina Jiménez Savurido, Presidente de Fide, y Pedro García Barreno, Doctor en Medicina y catedrático emérito de la Universidad Complutense.


Introducción del Blog

En este blog se recogen artículos y reflexiones generados dentro de los diálogos Ciencia-Derecho de Fide. Estos diálogos están presididos por la Comisión Ciencia y Derecho. Se trata de un blog colectivo en el que los profesionales que participan de manera regular en estos diálogos compartirán sus reflexiones.