Menu

La robótica y la inteligencia artificial llegan a las leyes.


¿Qué ocurriría si un robot se pusiera a inventar? ¿De quién sería la titularidad de la obra? Y una cuestión más básica: ¿Qué es un robot y qué la inteligencia artificial? La Fundación para la Investigación sobre el Derecho y la Empresa, Fide, organizó el 4 de octubre una sesión sobre inteligencia artificial y robótica, y las cuestiones de propiedad industrial e intelectual relacionadas con ellas.



Fernández-Lasquetty (izq) y Jiménez Ramos
Fernández-Lasquetty (izq) y Jiménez Ramos
El escritor Isaac Asimov inventó las tres leyes de la robótica, que impedirían en general que un robot dañara a un humano. Aún no hemos llegado a eso, pero los robots y la inteligencia artificial empiezan a plantear debates jurídicos complejos, así como económicos, sociológicos y morales. En concreto, destacan las cuestiones sobre propiedad industrial e intelectual. La Fundación para la Investigación sobre el Derecho y la Empresa, Fide, organizó el 4 de octubre una jornada con expertos en el tema.

Javier Fernández-Lasquetty, socio de Elzaburu, y miembro del Consejo Académico de Fide, repasó la historia de la IA, desde que se acuñara el término, en 1956, en la Conferencia de Dartmouth (Estados Unidos). “Se creía posible crear una IA que replicara o incluso superara a la humana, lo que se denomina IA fuerte”, recordó.

Pero la realidad fue muy diferente, y el concepto resurgió en la década de 1980, como IA débil, “que se constriñe al diseño de máquinas que requieren inteligencia”.

Otro enfoque similar es el del “Millenium Project”: la IA estrecha, parecida a la débil, y muy concentrada en una actividad muy concreta, y la IA general, “máquinas más multitarea como los humanos, que empieza a ser algo peligroso”. Por último, está la super-IA, la inteligencia de máquinas que supera a la de los humanos.
 
De todo esto ya se ha estado hablando en FIDE durante el anterior curso académico, en sesiones de los llamados “Diálogos con la Ciencia”

En cuanto a la propiedad intelectual e industrial, dijo Fernández-Lasquetty, hay dos planos para abordar la cuestión: cómo proteger la innovación relativa a la IA y la robótica, y qué pasaría si a los robots “les diera por crear”.

Para proteger la innovación, “lo que hay es lo que hay: patentes, marcas, derechos de autor…” De hecho, en diversos documentos publicados por OMPI en 2015 y 2016 se observa un creciente uso de patentes y secreto empresarial para la protección de las innovaciones en materia de inteligencia artificial y robótica, además de la propiedad intelectual del software.
 
Se plantea también la posibilidad de crear una protección sui generis, como ocurrió en cuanto a las bases de datos, para proteger el esfuerzo que llevan a cabo aquellas entidades que están realizando esfuerzos en este campo.
 
Y es que precisamente el tema del uso masivo de datos o Big Data, mediante algoritmos avanzados, es otro de los temas candentes. En este campo pueden verse afectados datos personales, pero también no personales, que a veces son tan importantes o más”.

Como ejemplos de esto último, citó la tecnología de “sensorización de molinos de viento para la determinación de las condiciones óptimas para implantar un parque eólico”, o los “sistemas inteligentes para la predicción de las cosechas”. A partir de aquí se plantean múltiples cuestiones como ¿Quién tiene la titularidad de los datos, quién puede acceder a ellos, según sean públicos o privados? ¿Las compañías eléctricas, por ejemplo, que tienen un régimen de oligopolio, deben compartir los datos? ¿Los datos de titularidad pública deben ser de libre acceso, debe pagarse por ello?”

Y aun más: “¿Los datos tienen un valor o lo importante es el algoritmo para obtener los resultados? ¿Cómo protegemos el algoritmo? Estamos en mantillas, no somos capaces de trasegar el gran volumen de datos, aunque vamos avanzando. Vamos a ver cómo se regulan estas cuestiones.”

El otro aspecto a tratar son las invenciones realizadas por los propios robots. “Hay una iniciativa del Parlamento Europeo en la que ya se habla un poco más en serio de este tema. La legislación está pensada para los humanos, para protegerlos frente a las corporaciones, y está muy clara de momento. Pero, ¿las personas digitales o electrónicas podrán ser creadores o inventores?”

La cuestión “nos va a llevar a revisar algunos conceptos. No sabemos cómo algunas técnicas como la computación genética pueden afectar al concepto de invención. ¿Quién es el que descubre cuando aplicas estos mecanismos automáticos? Es posible que los científicos digan que han sido ellos, y no el robot, el que ha creado la invención”.

Robots

Seguidamente se proyectó un vídeo   sobre robots diseñados por la compañía Boston Dynamics, en los que se observa su capacidad de movimiento e interacción con el entorno.
 
El segundo ponente, Alfredo L. Jiménez Ramos, es socio de MAG Abogados, e ingeniero especialista en derecho de las TIC, así como profesor de Derecho y Criminología de la Universidad Camilo José Cela. “Ha dedicado, por tanto, toda su vida al cruce de los temas informáticos y jurídicos”, dijo Fernández-Lasquetty de él.

Jiménez comenzó aludiendo al video y dijo que lo primero es determinar cuándo una máquina es un robot. “Estamos acostumbrados a usar máquinas desde el principio de la historia. Empezaron siendo máquinas simples, como la polea o la rueda, para mover objetos pesados, la ballesta para atacar, o el ábaco para hacer cálculos rápidos”.

Y más adelante, surgieron máquinas que aprovechaban fenómenos naturales, mediante la libertad de dominio, “la libertad humana de dominar o controlar energías que ya estaban en la naturaleza para compensar sus limitaciones y vulnerabilidades”. Por ejemplo, la máquina de vapor, que aprovecha la expansión de los gases para crear un sistema que permite que una rueda tenga una cinemática”.

Este concepto se ha llevado muy lejos, dijo Jiménez, y las máquinas “están sustituyendo a las fuerzas intelectuales y físicas del hombre, en la sociedad de la automatización. Una excavadora, un coche, son robots, son un producto más, pero no les damos ese carácter. Hay una tendencia a equiparar robot con androide.”

Un robot “toma información, y la procesa, usando diversas ciencias y tecnologías: la mecatrónica, la biónica, la ingeniería de sistemas, la inteligencia artificial, las redes neuronales, la nanotecnología… Es un compendio de áreas de conocimiento. Y si no, no es un robot.”

Además, un robot tiene que tener “corporalidad, presencia, porque si no, todo el software sería un robot. Tiene que tener efectos físicos, una función concreta en el mundo físico, como el típico brazo de montaje industrial”. También tiene que estar “radicado, ubicado; aunque puede estar multirradicado, en un rango posible, como un dron”.

Debe haber una integración del efecto lógico con el efecto físico: “Hay una inteligencia que realiza una acción, un desplazamiento, etc. Por ejemplo, un robot de un laboratorio farmacéutico que transforma unas moléculas en otras.” Y está “especializado: no se han inventado robots de propósito general. Un robot que juega al ajedrez no juega a las damas. Por eso es lógico que ganen a los humanos en esa actividad que dominan, pero luego pierden en las otras”. También el robot quirúrgico Da Vinci.

Asimismo, “tiene que tener una cierta obediencia e interacción. Tiene que estar dirigido. No hay robots autónomos. Normalmente tienen una interfaz gráfica, y están programados”.

Los robots “miden, toman mediciones. Van tomando información donde está previsto. Algunos robots participan incluso en concursos de conocimiento, como Jeopardy. Toman mucha información de bancos repositorios de bancos asociados. Los robots industriales miden texturas, presiones… tienen montones de sensores. O los robots que controlan trenes, que activan un freno hidráulico para evitar accidentes”.

Deben ser “integrados, compactos. Una red de computadoras no es un robot. Internet no es un robot. El virus Stuxnet  no ataca a las máquinas en sí, sino al programa que las controla, como en las centrales nucleares de Irán.”

Y, por último, debe tener “trascendencia”, es decir, “servir para algo: transportarnos, cirugía, etc.”.

Inteligencia artificial

Llegó el momento de abordar el concepto de inteligencia artificial (IA), “uno de los muchos elementos de los que se vale la robótica. Ambos conceptos no han caminado siempre de la mano. La investigación en robótica, muy universitaria, se ha decantado a veces más hacia los sistemas expertos, y otras veces hacia la ingeniería de materiales.”

La IA “no hace falta que actúe sobre un elemento físico, no necesita estar interactuando continuamente. Hay una descompactación”.

Es posible, dijo, que con la IA “estemos diciendo que la inteligencia humana es cosificable, algo material. Podemos llegar a decir que una persona es discapacitada respecto a una máquina especializada”.

Avisó, por ejemplo, de que “estamos preparando el camino para la aceptación del juez robot, alguien que no cae en el subjetivismo al interpretar reglas. Eso viene del mundo anglosajón, porque en nuestro sistema el juez sí que tiene que interpretar la ley, aunque se base en la jurisprudencia. No podemos poner a las máquinas a interpretar las normas”.

La conexión entre el derecho y la robótica, dijo, “es muy grande, pero no exactamente por donde se están intentando hermanar. Algunos de los aspectos más importantes en los que debe incidir el derecho son:

-el derecho al progreso social. Tenemos que ir hacia adelante, hemos alcanzado ciertas cotas de libertad gracias a la tecnología, y los poderes públicos tienen la obligación de ponerla a nuestra disposición.
-intimidad. El big data, etc., son bienes de progreso que atentan contra otras libertades. Hay que prevenir que los robots actúen represivamente contra las personas”.
-tratamientos médicos. Hay que sustituir órganos dañados, como las piernas artificiales, pero también la cirugía estética, con tratamientos cada vez menos invasivos”.

Sobre los coches autónomos, dijo Jiménez que siempre va a haber “una titularidad”, de modo que en caso de accidente, haya un responsable, el dueño de la máquina, que podrá repercutir sobre el fabricante. No debemos descontextualizar. Los robots son máquinas, así que no va a cambiar mucho nuestras obligaciones.” El caso de que ocurra algo que no está programado, “es como si cae una maceta. Hay una responsabilidad”.

También dijo que el “autoaprendizaje no deja de ser programación”, y que es “muy relativo” que las máquinas aprendan, porque no son metacognitivas, como los humanos”, esto es, con capacidad para reflexionar sobre los propios pensamientos o confianza en nuestros propios juicios al actuar; esta introspección es un proceso muy complejo que requiere una autoevaluación continua del sujeto y que depende de su química cerebral. Un robot es ajeno a este estado de de mayor o menor autoconfianza.  Por ultimo, los robots  “tampoco son narcisistas, ni intransigentes, ni se cansan.  El ser humano cuando se cansa, desempeña peor en este estado -se desmotiva-; en el robot sólo podría simularse este cansancio; programando que, cuando lleve tantas horas activas parezca que se canse” pero, realmente, no estaría cansado.

 




L M M J V S D
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31          












Semblanzas Fide

Síguenos en redes sociales
Facebook
Twitter
LinkedIn
YouTube Channel
Rss