Menu
BLOG DE LA FUNDACIÓN PARA LA INVESTIGACIÓN SOBRE EL DERECHO Y LA EMPRESA Y LA FUNDACIÓN GARRIGUES





Ramón López de Mántaras, Director, Artificial Intelligence Research Institute (IIIA-CSIC) Fotografía: Jordi Cabanas
Ramón López de Mántaras, Director, Artificial Intelligence Research Institute (IIIA-CSIC) Fotografía: Jordi Cabanas
El objetivo último de la Inteligencia Artificial, lograr que una máquina tenga una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es comparable a otros grandes objetivos científicos como explicar el origen de la vida, el origen del universo o conocer la estructura de la materia. El principal problema al que se enfrenta la Inteligencia Artificial es la adquisición de conocimientos de sentido común. Poseer sentido común es el requerimiento fundamental para que las máquinas actuales dejen de tener inteligencias artificiales especializadas y empiecen a tener inteligencias artificiales de tipo general. Los conocimientos de sentido común los adquirimos gracias a nuestras vivencias. Una aproximación interesante al problema de dotar de sentido común a las máquinas es la denominada “cognición situada”. Es decir, situar a la máquina en entornos reales con el fin de que tengan experiencias que les doten de dicho sentido común mediante aprendizaje basado en el desarrollo mental. Esta cognición situada requiere que la IA forme parte de un cuerpo. Esto es así porque los cerebros forman parte integrante de cuerpos que a su vez están situados e interaccionan en un entorno real muy complejo. De hecho, el cuerpo es determinante para la inteligencia ya que el sistema perceptivo y el sistema motor determinan lo que un agente puede observar y las interacciones con su entorno. A su vez, estas situaciones conforman las habilidades cognitivas de los agentes. Las aproximaciones “no corpóreas” no permiten interacciones ricas con el entorno por lo que, inevitablemente, dan lugar a falsos problemas y por lo tanto a falsas soluciones. Actualmente todavía nos encontramos con importantes dificultades para que una máquina comprenda completamente frases relativamente sencillas o bien sea capaz de describir cualquier tipo de escena visual. 

Posiblemente la lección más importante que hemos aprendido a lo largo de los 60 años de existencia de la inteligencia artificial es que lo que parecía más difícil (por ejemplo, diagnosticar enfermedades o jugar al ajedrez y al Go a nivel de gran maestro) ha resultado ser relativamente fácil y lo que parecía más fácil ha resultado ser lo más difícil. Las capacidades más complicadas de alcanzar son aquellas que requieren interaccionar con entornos no restringidos: percepción visual, comprensión del lenguaje, razonar con sentido común y tomar decisiones con información incompleta. Diseñar sistemas que tengan estas capacidades requiere integrar desarrollos en muchas áreas de la Inteligencia Artificial. En particular, necesitamos lenguajes de representación de conocimientos que codifiquen información acerca de muchos tipos distintos de objetos, situaciones, acciones, etc., así como de sus propiedades y de las relaciones entre ellos. También necesitamos nuevos algoritmos que, en base a estas representaciones, puedan razonar y aprender de forma robusta y eficiente sobre prácticamente cualquier tema. A pesar de todas estas dificultades, las tecnologías basadas en la IA ya están empezado a cambiar nuestras vidas en aspectos como la salud, la seguridad, la productividad, o el ocio y a medio plazo van a tener un gran impacto en la energía, el transporte, la educación, y en nuestras actividades domésticas. En cualquier caso, por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, de hecho, siempre serán distintas a las inteligencias humanas debido a lo que hemos mencionado sobre lo determinantes que son los cuerpos en los que están situadas. El hecho de ser inteligencias distintas a la humana y por lo tanto ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre aspectos éticos en el desarrollo de la Inteligencia Artificial y en particular sobre la conveniencia de dotar de autonomía completa a las máquinas. 

Estos aspectos éticos, entre otros, fueron debatidos en un B·Debate  el pasado 8 de marzo de 2017, organizado por Biocat, con el apoyo de la Obra Social la Caixa, Barcelona y ha dado lugar a la “Declaración de Barcelona para un desarrollo y uso adecuados de la Inteligencia Artificial en Europa”. Esta declaración se puede ver y firmar en http://www.iiia.csic.es/barcelonadeclaration/   




Martes, 11 de Abril 2017 | Comentarios

«I would suggest that
the whole imposing edifice of modern medicine,
for all its breath-taking success, is,
like the celebrated tower of Pisa,
slightly off balance» (1)


    «Medicina» es la aplicación de la ciencia y de la técnica —«tecnología médica»— en aras de prevenir —medicina preventiva—, predecir —medicina predictiva—, diagnosticar, pronosticar y tratar —medicina clínica—, la enfermedad. También, rehabilitar —medicina rehabilitadora— sus secuelas. Sin embargo, en los últimos años han hecho eclosión una «medicina molecular» y derivados, y una «medicina de la salud», una demanda sin freno, un consumismo exagerado de recursos reclamado por una salud virtual y por una estética tirana. 

    La práctica de la medicina, que se centra en el «encuentro clínico» —fuera de él, la medicina, tal como todavía hoy se concibe, carece de sentido—, ha sido considerada, desde los tiempos hipocráticos, un arte y una ciencia. Aunque la medicina no es una ciencia stricto sensu, con ella se construye —«ciencias biomédicas»—; mas, el arte, la intuición y las consideraciones humanas, requeridas en la práctica médica pueden estar entre las razones por las que la medicina desarrolló una cultura peculiar, un sistema educativo distintivo y una literatura característica, mientras incorporaba, en beneficio propio, los conocimientos y los logros de las distintas ciencias e ingenierías.

    Los esfuerzos encaminados hacia un enfoque más racional de la atención médica en el futuro, han caminado por dos sendas paralelas si no divergentes. Por un lado, existe un convencimiento creciente, resultado de los estudios de los patrones de las enfermedades en grandes poblaciones —epidemiología—, de que las principales patologías pueden achacarse, en su mayoría, a los cambios producidos en el ambiente y en los estilos de vida. A la vez, han ocurrido sendas revoluciones en las ciencias biológicas, en particular en los campos de la biología molecular y celular y en la ingeniería médica, cuyos resultados han dado un vuelco al modo de ejercer la medicina. Sin embargo, hay una creciente disparidad en el corazón de la denominada biomedicina. La producción de conocimiento básico ha superado, con creces, las expectativas más optimistas planteadas un par de décadas atrás; pero el impacto de esta investigación en la práctica clínica ha sido mucho más modesto. El término «investigación traslacional», apenas escuchado hace poco más de diez años, está en boca de expertos y legos, quienes lo consideran la solución de la disparidad señalada. Para ello habrá que reconvertir la autovía monodireccional del «laboratorio a la empresa», en otra bidireccional: «bench to bedside and back» (2); un camino aún sin concluir.

    Además, un tercer elemento: el incremento imparable de los costes. En ello se apoyan los epidemiólogos para reclamar mayor compromiso hacia la atención médica comunitaria y hacia las necesidades y preferencias de los pacientes, que justifican una aproximación más holística al tratamiento de los enfermos. Quienes administran los servicios sanitarios no logran establecer las prioridades: cómo enjaretar la prevención, en principio más económica, y cómo aquilatar la demanda de la alta tecnología con la atención de una población, cada vez más envejecida, que exige trasplantes y libre acceso a las unidades de cuidados intensivos (3).

    Desde al menos dos centurias, al igual que hoy día, la educación de los médicos incluye, típicamente, una formación en los principios de las ciencias generales como la matemática y la física, así como un currículo médico estándar que incluye anatomía, fisiología, farmacología, bioquímica y otros temas que se asocian, de manera automática, con la medicina. Sin embargo, hay una opinión generalizada de que muchas de las cualidades del buen médico se han perdido en el esfuerzo por comprender la enfermedad, en vez de por los problemas de los enfermos. Ello se imbuye en una serie de paradojas, a primera vista incompatibles con el éxito prodigioso e indudable de la medicina moderna: médicos desilusionados; soluciones agotadas y pacientes desengañados; popularidad rampante de las medicinas alternativas, y la espiral de costes apuntada de la atención médica (4). En resumen, una insatisfacción con la práctica médica (5).

  

Pedro García Barreno
Pedro García Barreno
  La profesión médica, hoy, se enfrenta a varios problemas. Está desorientada en un laberinto burocrático; ha perdido su autonomía; su prestigio se sume en una espiral descendente, y se ha hundido su profesionalismo. Pero los problemas no acaban aquí. Una grave enfermedad médica merodea entre las sombras de todo ello. Una enfermedad de la que sólo es responsable la propia medicina y que amenaza al público al que debe servir. Comienza en la Facultad, donde prácticamente no recibe atención alguna. Pasada la incubación, florece durante el periodo de especialización en los años de Residencia. Luego, se cronifica. La terapéutica y sobre todo las medidas preventivas, se ignoran, y en el mejor de los casos son inadecuadas. Nos encontramos ante un cuadro típico de «insolvencia clínica».

    Herbert L. Fred (6) acuñó el término hyposkillia  —«hipopericia»— para referirse a la deficiencia de habilidades clínicas de los médicos; una patología debida a que sus intereses se centran en la enfermedad y en la técnica, que relegan a un segundo plano el contacto directo con el enfermo. Una situación que queda recogida en un nuevo eslogan: «medicina high-tech low-touch», que se ejemplifica en el «hospitalocentrismo» imperante (7). Médicos que aprenden a solicitar todo tipo de pruebas y procedimientos, pero que no siempre saben cuando pedirlos o como interpretarlos; médicos incapaces de hacer una historia clínica o una exploración física bien hechas. Además, una gestión prepotente orientada a recibir —no a atender— al mayor número de pacientes, en el menor número de minutos posible y aquilatando al máximo el número de euros por paciente. Protagonismo «numérico» que bien pudiera dar pie a una nueva área de conocimiento de las ciencias médicas, junto a la genómica, proteómica o celulómica: «numerómica». 

    ¿Existe cura para la tiranía tecnológica? Se necesitan docentes que sepan y que enseñen fisiopatología, propedéutica y patología clínica; que apliquen high-touch, que conozcan las bases de las diferentes técnicas y sepan cuando solicitarlas y cómo interpretarlas, y que utilicen high-tech para verificar más que para formular sus impresiones clínicas. Se requieren docentes que verdaderamente comprendan el valor de la historia clínica y de la exploración física; el valor de saber pensar y de la importancia de la responsabilidad. Profesores que usen antes el fonendoscopio y no un fonocardiograma, para detectar una valvulopatía cardiaca; que con un oftalmoscopio y no con una imagen por resonancia magnética, diagnostiquen una hipertensión intracraneal; que utilicen sus ojos y no una gasometría para diagnosticar una cianosis; que apliquen sus manos sobre el abdomen de un enfermo y no consulten una tomografía computarizada para diagnosticar una esplenomegalia, y que utilicen su cerebro y su corazón y no una horda de consultores, para atender a sus pacientes. Tal vez ello atempere una judicialización creciente de la medicina (8).

    Los centros médicos académicos o universitarios —al menos así consta en las fachadas de nuestros hospitales— tienen la responsabilidad de proporcionar una atención sanitaria ejemplar a los enfermos, enseñar medicina a los estudiantes, formar a los futuros profesionales y aportar nuevo conocimiento a través de la investigación (9). Hay que reinventar el sistema, porque ni reformas ni reestructuras son suficientes: existe la tendencia de que cuando se topa con problemas complejos, se opta por soluciones simples. Henry L. Mencken dijo que «para cada problema complejo existe una solución simple y errónea» (10). No hay una solución simple; son tantos los factores involucrados que es imposible, desde la pasividad, predecir un futuro que está por venir.
 
    Richard Anderson (11) caracterizó los desarrollos médicos históricamente recientes en décadas: la de los años 1960, década de la innovación clínica; la de 1970, década de la expansión clínica, y la siguiente, década de la restricción financiera. Para la década de 1990 reservó el calificativo de paradójica. Para esos últimos años, Alexander J. Walt (12) acuñó el término «dis-decade». Un término que resume una enmienda a la totalidad: «Medical education: a continuum in dis array + dis affected public (lack of humanism) + dis spirited residents (service versus education) + dis functional government (declining financial resources) + dis organized speciality movement (fragmentation) + dis couraged faculty (relative value of medical education) = decade of dis enchantment».

    Pocas son las razones, desde luego, para sentirse optimista. Tal vez, esperanzados. «La trampa del presente es el futuro […] el futuro solo tiene sentido como proyección del presente» (13). «En el ámbito de la medicina, no hay contradicción fundamental alguna entre la aproximación científica al estudio y tratamiento de la enfermedad y los aspectos pastorales del cuidado de los pacientes» (14). Uno de los avances más importantes de la práctica médica ha sido un lento pero mantenido desplazamiento desde un oficio artesanal hacia una disciplina más racional y con una sólida base científica. Debemos poner nuestra esperanza en más y mejor ciencia. Sin embargo, la enfermedad es un problema biológico extraordinariamente complejo; una entidad que tiene que ser entendida a niveles muy diferentes, desde las moléculas —medicina molecular (15)— hasta la población global (16). 

    Ya operativa, una «medicina predictiva» en la que el diagnóstico molecular cambiará las bases científicas del pronóstico; a la vez, alterará las dimensiones éticas y legales de la relación entre pacientes, sus médicos y otros estamentos implicados en la acción sanitaria. El término unpatients (17) ─prepaciente, paciente potencial─ supone una especie de carga de profundidad a la «nueva medicina». También, la «medicina personalizada» y «de precisión»; ¿términos sinónimos? (18). Y ya más que en puertas: «medicina regenerativa», «nanomedicina», la implicación de la «inteligencia artificial» en el contexto médico o «i-patient» e «i-medicina», y a la vista la «edición del genoma» humano; aplicaciones, todas ellas, que obligan, a pasos agigantados, a un cambio sin precedentes del cuidado de la salud (19).

    En cualquier caso, mientras haya enfermos que tratar, la medicina seguirá teniendo mucho de arte; cuanto más sofisticada sea la práctica clínica, mayor será la necesidad de tratar a los pacientes como personas y no como enfermedades (20).

Accede aquí a la lista de referencias usadas en este artículo 




Lunes, 27 de Marzo 2017 | Comentarios

Fide y la Fundación Garrigues analizaron el pasado 2 de febrero, en sus "Diálogos Ciencia y Derecho", los principales retos a los que se enfrenta la genética/genómica actualmente.


Sesión Diálogos Ciencia-Derecho: "El difícil diálogo entre Derecho y genética. Más allá de la bioética"
Presentó la sesión: Antonio Garrigues Walker, Presidente de la Fundación Garrigues y participaron en las intervenciones iniciales José Miguel García Sagredo, Académico de Número de la Real Academia Nacional de Medicina. Fundador de la Asociación Española de Genética Humana, de la Sociedad Española de Genética Médica y de la European Cytogeneticists Association. Investigador y Luis Fernández Antelo, Magistrado especialista de los contencioso-administrativo. Profesor colaborador de la UCM y Académico correspondiente de la Real Academia de Jurisprudencia y Leyes. Pedro García Barreno, Doctor en Medicina. Catedrático emérito de la Universidad Complutense, moderó la sesión. 

Durante la sesión se presentaron el estado de la genómica y los retos a los cuales se enfrenta la ciencia y el derecho en estos momentos. Se habló del diagnóstico preventivo de enfermedades, del importante dato sobre los genes que no predicen una enfermedad, sino un riesgo, y sobre la cuestión de los hallazgos incidentales en el estudio del genoma humano. Estos son los retos a los cuales se enfrentan los pacientes con el consentimiento informado y su autonomía. José Miguel García Sagredo comentó que, en la práctica, el consentimiento informado no presenta problemas y la ley se lo exige a los genetistas. En muchos casos surge la pregunta sobre quién debe informar al paciente, ya que si no es genetista pueden surgir problemas con el consentimiento informado. Esta cuestión se ha abordado de forma diferente en las distintas legislaciones.

Durante la sesión también se hizo referencia tanto a los estudios masivos que se están realizado como a la inexistencia de estudios genéticos suficientes para grupos étnicos minoritarios. También se abordó el tema de las pruebas diagnósticas por internet, los datos genéticos en la nube y los principales riesgos derivados. La reproducción asistida, en concreto la técnica de transferencia mitocondrial, que está generando un amplio debate ético y legal también fue objeto de análisis y comentarios. Los usos de la edición genómica y los órganos creados para trasplantes fueron temas sobre los que también se habló en el debate. 
  
Luis Fernández Antelo argumentó que, ante los retos descritos, que en muchos casos ya son una realidad, el modelo actual de responsabilidad legal, basado en la responsabilidad subjetiva (que requiere intención o culpa) y en la responsabilidad objetiva (que se presume, salvo prueba en contrario) está obsoleto. Así, defendió la necesidad de regular nuevas categorías culpabilísticas de responsabilidad, aunando la corrección necesaria de la causalidad natural con la naturaleza predecible de los eventuales riesgos de la experimentación genética. De tal modo, en supuestos en que la actuación investigadora (o secuenciadora) se lleve a cabo sin suficiente información sobre sus eventuales consecuencias, bien para el sujeto concreto, bien para la colectividad, podrían acuñarse distintos tipos de dolo similares al eventual (dolos in secuenciando, in programando, in alterando…) o, en su caso, actualizar categorías propias de la teoría clásica alemana del delito, como de las actio liberae in causa, en paralelo con el desarrollo de figuras de responsabilidad similares al garante, en los delitos de comisión pro omisión. Finalmente, recalcó que, dado que no existen las fronteras para la genética, sería interesante que se estableciera un regulador o supervisor global a quien comunicar todos los hechos relevantes. 

Pincha aquí para consultar el resumen completo de la sesión. Accede a las presentaciones de la sesión aquí 
 




Viernes, 17 de Marzo 2017 | Comentarios

Cristina Jiménez Savurido y Ángel Carracedo
Cristina Jiménez Savurido y Ángel Carracedo
El pasado 16 de enero de 2017 la Fundación Garrigues y Fide organizaron la sesión: Diálogos Ciencia-Derecho: ¿Qué validez tienen las pruebas forenses?, dentro del marco de los Diálogos Ciencia-Derecho que ambas fundaciones llevan celebrando desde hace tres años. Tuvimos el placer de contar con Ángel Carracedo, Catedrático de Medicina Legal en la Universidad de Santiago de Compostela, Director de la Fundación Pública Gallega de Medicina Genómica y del Centro Nacional de Genotipado (nodo USC) y Vicepresidente de la Academia Internacional de Medicina Legal. Presentó la sesión Cristina Jiménez Savurido, Presidente de Fide.

La intervención de Ángel Carracedo se estructuró en dos partes: la primera estuvo dedicada a repasar las conclusiones del informe publicado en septiembre de 2016 por el Comité de Asesores en Ciencia y Tecnología del Presidente de los Estados Unidos ("PCAST") sobre la validez científica de los métodos forenses utilizados en los tribunales penales. La Casa Blanca solicitó la emisión de este informe ante el cuestionamiento generalizado observado sobre la validez jurídica de las pruebas forenses. Se destacó que el uso de las pruebas forenses es distinto según el contexto: en la investigación policial, no se exige que las pruebas tengan necesariamente estándares científicos altos; pueden ser indicadores que orienten y pueden estar basados en criterios de coste-eficacia. Por el contrario, en el marco de un proceso judicial las pruebas requieren estándares científicos muy altos, y el testimonio de un perito ha de estar basado en métodos fiables, aceptados y científicamente válidos. Son los jueces los que tienen que determinar la validez científica del testimonio pericial o de la metodología utilizada en cualquier prueba. Así, durante la primera parte de la sesión se estableció la clara distinción entre la investigación policial y las pruebas judiciales, las cuales tienen distintos estándares científicos y conllevan a diferente validez científica. También se hizo énfasis en la utilidad de las pruebas subjetivas y el gran avance que ha sido introducir las pruebas objetivas y las diferencias entre validez científica y validez fundacional de un método forense. Finalmente, durante la segunda parte se repasaron los principios de la genética forense y su aplicación para la resolución de conflictos judiciales, destacando la importancia de avanzar en los métodos científicos y su interpretación para conseguir reconstruir retratos completos de los individuos.
 

Pincha aquí para consultar el resumen completo de la sesión.




Viernes, 24 de Febrero 2017 | Comentarios

Pedro García Barreno: Doctor en Medicina. Catedrático emérito de la Universidad Complutense.


Pedro García Barreno
Pedro García Barreno
¿Qué es lo que existe y de qué modo lo conocemos? ¿Qué es lo real, y cuál es el fundamento de tal realidad? Estas cuestiones sencillas y perennes constituyen uno de los problemas fundamentales de la filosofía. ¿Qué es lo real? La evidencia de los sentidos ¿es suficiente para determinar la realidad? Para William Blake, pintor y poeta visionario, nada es real más allá de las figuraciones imaginativas que los hombres se hacen de la realidad. La realidad es, en todo caso, una noción complicada. La mayoría de las personas no niega la realidad; la vida es real y no un sueño y los objetos que les rodean, sus pensamientos y sentimientos son reales todos ellos. Hay una realidad objetiva y hay otra realidad subjetiva. La posibilidad misma de lograr acuerdos universales conduce a la conclusión de que existe ahí fuera un mundo objetivo, independiente de la existencia o la observación humana. Lo privado y particular es realidad subjetiva.
 
Myron W. Krueger, que acuñó el término realidad artificial, señaló que «el propósito de las realidades artificiales no es reproducir la realidad convencional o actuar en el mundo real, sino la oportunidad de crear realidades sintéticas para las que no existen antecedentes reales». Jaron Z. Lanier, a partir del término de Krueger, adoptó el de realidad virtual. Tal realidad virtual crea un espacio mágico ─el ciberespacio de Neuromancer de William F. Gibson─ donde es posible interaccionar con cualquiera y con cualquier cosa en un mundo virtual. Las leyes convencionales del espacio y del tiempo no son operativas en esos mundos de ensueño donde todo puede simularse. La realidad virtual es la gran idea de los noventa. Tecnología al servicio del arte; al servicio del placer. Placer al servicio del arte; tecnoplacer, teledildónica. La mezcla de todo ello conduce a un lugar diferente a los que hoy visitamos en nuestras visiones de futuro. Griogore C. Burdea definió la realidad virtual como «una interfase que implica simulación e interacción en tiempo real mediante múltiples canales sensoriales»; y John C.  Thomas, director de NYNEX Artificial Intelligence Laboratory, señaló que, «a lo mejor, la realidad virtual no sólo afectará al mundo en que vivimos, sino que nos ayudará a entender que tenemos un mundo para vivir». En cualquier caso, no cabe duda de que la realidad virtual influirá ─lo está haciendo─ de manera decisiva en nuestra sociedad.
 
En la medida en que real y virtual son términos antagónicos, parece un contrasentido que la tecnología de vanguardia nos hable ahora de realidad virtual. Sin embargo, la ciencia del último siglo, con la física a la cabeza, se ha dedicado con especial empeño a cuestionar las más antiguas y firmemente asentadas dicotomías: espacio y tiempo, materia y energía, movimiento y reposo y las penúltimas fronteras: cuerpo y mente y forma y función. Y ahora la ciencia y la tecnología, con la informática a la cabeza, parecen dispuestas a cruzar, a abolir, la última frontera, la que separa lo real de lo irreal.
 
En 1956, Morton L. Heilig inventó Sensorama ®, un viaje imaginario a través del tráfico de Manhattan inmerso en un ambiente artificial de sonidos, luces y olores. En los años sesenta, Ivan E. Sutherland, de la mano de Boeing Corporation, sentó las bases del grafismo computacional e interactivo; dos de sus obras son clásicos de la realidad virtual: The Ultimate Display y A Head-mounted Three Dimensional Display. Los setenta fueron fructíferos en la mejora del software para el diseño cornputacional y el desarrollo de manipuladores mecánicos para controlar ambientes virtuales; los primeros guantes de control virtual compitieron con los joystick. Los comienzos de los años ochenta dejaron claro que la realidad virtual era una tecnología viable; se construyó la primera cabina de vuelo virtual, Myron W.   Krueger publicó Artificial Reality, William F. Gibson escribió Neuromante y M. McGreevy y J.  Humphries desarrollaron el sistema VIVED (Virtual Environment Display Sustem) para los futuros cosmonautas de la NASA. Los noventa representan la consolidación de una realidad virtual todavía en sus inicios: la serie Sense 8 de los hermanos Lana y Andy Wachowski o Divison System entraron en el mercado con la venta de los primeros sistemas de realidad virtual, fundamentalmente en la esfera del ocio; sin embargo, Richard M. Satava anunciaba el comienzo de una era de simulación por computadora en cirugía.
 
Entre los extremos de la vida real ─aquello que supone el día a día─ y la realidad virtual ─el mundo matemáticamente simulado en la computadora─ se extiende el espectro de la realidad mixta, un continuo realidad-virtualidad, donde el mundo real se combina, en menor o en mayor parte, con experiencias de un ambiente virtual. Se denomina realidad aumentada, reforzada o potenciada (augmented reality ─algunos la denominan hiperrealidad)  a aquella representación del mundo real a la que se añaden elementos de un ambiente virtual. Por su parte, virtualidad aumentada, reforzada o potenciada (augmented virtuality) describe aquellos dispositivos que ensalzan la experiencia virtual añadiendo elementos del ambiente real
 
La historia recuerda que hay un tiempo y un lugar para que cada cosa suceda; e independientemente de lo útil, atractivo o revolucionario de la cosa, ésta no sucederá hasta que se den las condiciones adecuadas. El éxito de la invención es, ante todo, su oportunidad; esto es, cuando un producto encaja con una necesidad específica. También es importante el marketing, su difusión, que venza la rutina y la sensación de lo superfluo. Por supuesto que el éxito inventivo también va de la mano del índice de ventas, del beneficio económico y-de las actitudes sociales. Los sistemas de realidad virtual no se desarrollaron para dar respuesta a una necesidad específica; se desarrollaron, simplemente, porque eran posibles.
 




Martes, 21 de Febrero 2017 | Comentarios

1 2 3 4 5
Blog de la Fundación Fide y la Fundación Garrigues
Fide
La Comisión Ciencia y Derecho está dirigida por Antonio Garrigues Walker, Presidente de la Fundación Garrigues, Cristina Jiménez Savurido, Presidente de Fide, y Pedro García Barreno, Doctor en Medicina y catedrático emérito de la Universidad Complutense.


Introducción del Blog

Este blog recoge la opinión de los profesionales que participan con regularidad en los diálogos Ciencia-Derecho. En ningún caso representa la opinión de la Fundación Fide, la Fundación Garrigues ó de la Comisión Ciencia y Derecho.





Noticias Fide