Menu
Fundación para la Investigación sobre el Derecho y la Empresa



Robótica y empleo: ¿un nuevo paradigma económico y laboral en los centros de trabajo?, por Carlos de la Torre





Carlos de la Torre, Abogado Of Counsel en Baker & McKenzie. Miembro del Consejo Académico de Fide
Carlos de la Torre, Abogado Of Counsel en Baker & McKenzie. Miembro del Consejo Académico de Fide

Resumen

La robotización y la inteligencia artificial ya están impactando en los modelos de trabajo y de negocio. Se están destruyendo empleos burocráticos y repetitivos que son desarrollados por robots, pero ¿qué ocupaciones están en riesgo y cuáles son las potenciales fuentes de creación de puestos de trabajo? ¿Qué consecuencias tendrá la robótica para las empresas? ¿y sobre el modelo de relaciones laborales o sobre la financiación y alcance de la Seguridad Social? ¿Cómo interactuarán los robots y los humanos en los centros de trabajo? El avance de los robots en los centros de trabajo es un nuevo paradigma económico y laboral y abre muchas incógnitas y retos nuevos que deberán ser resueltos por la legislación especialmente cuando el autoaprendizaje de los robots (ya humanoides) exceda de la programación base que le puso el fabricante o las órdenes directas del dueño del robot, pero también abre un mundo de oportunidades que habrá que optimizar. 

Las leyes de la robótica y el impacto económico de robots.

La regulación de los robots lleva varios años en el punto de mira de los organismos internacionales y de los Gobiernos. En algunos países como EE.UU, Japón y Corea ya se están tomando medidas regulatorias en relación a los robots pero no todavía en Europa.  En marzo de 2012, la Comisión Europea inició un proyecto denominado robolaw que tuvo como resultado final un informe sobre cuestiones éticas y legales que presento a finales de octubre de 2014 la profesora Erica Palmerini de la Scuola Superiore Sant Anna de Pisa que plantean los robots, así como ofrecer orientaciones y principios que pudieran guiar a los reguladores europeos y nacionales que tengan que legislar sobre estas cuestiones. Dicho informe ya consideraba que los valores esenciales de las leyes de la robótica tenían que ser la justicia, la dignidad, la privacidad, la solidaridad, la protección de los consumidores y de los derechos fundamentales, la no discriminación, la integración de las personas con discapacidad y la asistencia sanitaria. Ya entonces la robótica se vinculaba con sectores como el transporte o la sanidad y se abordaba la necesidad de regular la problemática de los coches sin conductor, los aviones no tripulados, los robots cirujanos, los sistemas ciberfísicos (SCF) de mejoramiento del cuerpo humano, las prótesis robóticas y los robots asistenciales para el cuidado de personas ancianas o con discapacidad o los robots de entretenimiento. Más recientemente, los drones están abriendo un mercado para su utilización en entregas de productos o servicios a consumidor final o en tareas de apoyo en servicios de agricultura, forestales, de vigilancia o industriales e incluso en actividades bélicas o de espionaje militar.

El impacto de la robótica en la economía es colosal y su expansión va a desencadenar una cuarta revolución industrial. En 2016, los datos económicos muestran que es un mercado que facturo 32.000 millones de dólares incluyendo software, dispositivos periféricos e ingeniería de sistemas y por ejemplo la concentración geográfica muestra una distribución muy relevante en Japón dónde se encuentran el 40% de los robots; en Europa dónde están un 33%; y en América del Norte dónde hay un 15%. El sector está dominado por dos empresas japonesas (Yaskawa y Fanuc) y por dos empresas europeas (ABB y KUKA).

Retos jurídicos de orden laboral que plantea la robótica

En el ámbito de la robótica se plantean, entre otros, los siguientes retos jurídicos de orden laboral que precisan de soluciones para ofrecer la necesaria seguridad jurídica a desarrolladores, fabricantes y usuarios de los robots: (i) ¿es necesario reconocer la personalidad jurídica electrónica, aunque sea limitada de todos los robots? ¿o únicamente de los robots inteligentes? ¿en caso afirmativo habrá que reconocer a estos robots su capacidad para ser titular de derechos y obligaciones laborales?; (ii) ¿se puede reconocer la posibilidad de que los robots firmen transacciones con personas? ¿pueden ser entonces considerados como empleados y firmar un contrato de trabajo?; (iii) ¿quién debe asumir la responsabilidad administrativa, civil o penal por daños derivados de acciones u omisiones de los robots? ¿y particularmente quien responde en el caso de que esa responsabilidad afecta a daños de otros trabajadores que interactúan con los robots? ¿el fabricante del hardware? ¿el programador del software? ¿el propietario del robot? ¿el titular del establecimiento que utiliza los robots?  ¿el usuario final del robot que también obtiene los frutos de la prestación del robot?; (iv) ¿deben pagar impuestos los robots o al menos los titulares o propietarios o usuarios de los robots? ¿y cotizaciones sociales?;  (v) ¿Cómo debemos limitar la actividad de los robots cuando interaccionen con la privacidad de datos de los usuarios y las personas que se relacionan con los robots?; (vi) ¿Cómo debemos regular, en su caso, la propiedad intelectual de los robots en el caso de obras sujetas a derechos de autor generadas por robots?. 

Nuevo campo de juego: ¿hard law o soft law?

La operativa de los robots abre un nuevo campo de juego en sus relaciones entre robots de distintos propietarios o compañías o en relaciones con terceros (trabajadores, contratistas, consumidores, etc.) en dónde se precisa tomar decisiones sobre qué aspectos requieren una regulación fuerte (hard law) y que ámbitos precisan de mayor flexibilidad (soft law) para evitar que un exceso de regulación genere barreras y frenos a la innovación tecnológica y al desarrollo de la robótica y de la inteligencia artificial. Un ejemplo interesante es la autorregulación de los fabricantes asociado al lema "privacy by design" de modo que los propios robots incorporen teclas de interrupción de urgencia que paralicen la actividad de los robots en caso de desviación de los objetivos de diseño que se consideraron razonables. Y por supuesto, llegará la necesidad de coordinar la regulación de los robots con las cuestiones éticas derivadas de la relación robot-humano.

En 2016, el Parlamento Europeo presentó las primeras conclusiones en un informe de un grupo de trabajo que aborda recomendaciones sobre normas de Derecho civil sobre robótica e inteligencia artificial especialmente, en este último caso, aquella denominada fuerte y que se conecta con un sistema que puede emular el total funcionamiento de una mente humana ya que se necesita que la inteligencia artificial sea compresible y explicable a lo que deberá ayudar la claridad de los algoritmos. Más recientemente, el propio Parlamento Europeo en fecha 16.02.2017 ha presentado un nuevo informe sobre esta materia siendo ponente Mady Delvaux y aprobado la propuesta de regulación sobre la robótica y la inteligencia artificial dirigida a la Comisión Europea para que ésta elabore una Directiva sobre normas de Derecho Civil aplicables a la robótica y a la inteligencia artificial e incorpora una serie de recomendaciones sobre los contenidos que debe tener esa directiva y de una propuesta de Carta sobre Robótica (Charter on Robotics) que deberá ser tenida en cuenta por la Comisión cuando proponga actos normativos relativos a los robots. Esa Carta consta de dos códigos éticos (uno para los diseñadores de estos sistemas y otro para los Comités éticos de investigación sobre los mismos) y de dos relaciones de normas de uso (licences) para diseñadores y usuarios de estos sistemas.

Asimismo, el Parlamento Europeo propone a la Comisión que considere la creación de una agencia europea de la robótica y la inteligencia artificial que permita abastecer a las autoridades públicas de experiencia técnica, ética y regulatoria en estos ámbitos. También se plantea el Parlamento Europeo la necesidad de que exista un Estatuto jurídico internacional y/o nacional para los robots con el fin de establecer quién es responsable en caso de que causen daños.

Recomendaciones del Parlamento Europeo para la regulación de los robots en Europa

Una de las claves de entendimiento y resolución de los problemas legales derivados de los robots se relaciona con su autonomía para tomar decisiones y si pueden o no ser considerados responsables de actos u omisiones y se plantea la duda de si los robots encajan en las categorías jurídicas existentes -personas físicas, jurídicas, animales y objetos - o si sería conveniente crear una nueva categoría legal para los robots inteligentes y autónomos. El Parlamento Europeo, a resultas de esta polémica, ha avanzado que puede ser interesante y adecuado crear un régimen legal específico para que los robots autónomos más sofisticados puedan tener el estatus de "personas electrónicas con derechos y obligaciones específicas". Además, avanza la posible conveniencia de reconocer un principio de responsabilidad objetiva (strict liability) de los robots de modo que solo haya que probar el daño y la relación causal con la acción del robot y graduar la responsabilidad de los robots en función de la autonomía de los mismos de modo que cuanto mayor sea la capacidad de aprender o la autonomía de los robots, menor será la responsabilidad de las partes. Además, se ha anunciado la posibilidad de exigencia de un seguro obligatorio de responsabilidad de los robots (similar al de los automóviles) que se podría completar con un fondo de compensación compatible con el reconocimiento de un régimen de responsabilidad limitada del fabricante, el programador, el propietario o el usuario y que se podría nutrir de las contribuciones financieras de las empresas fabricantes y/o usuarias de los robots. Igualmente, se ha anunciado a nivel europeo la recomendación de creación de un registro especifico que permita identificar al robot, a las personas de las que depende, la existencia del seguro, sus limitaciones, etc.

Finalmente, se ha recomendado la elaboración de un código de conducta para los ingenieros en robótica y un código deontológico destinado a los investigadores basados todos ellos en los principios de beneficencia (los robots deben actuar en beneficio del hombre); de maleficencia (los robots no deberían perjudicar a las personas); autonomía (se debería limitar la capacidad de los robots para tomar una decisión al margen de la programación); y justicia robótica (se deberían distribuir de manera justa y equilibrada los beneficios de los robots especialmente en el ámbito de la asistencia sanitaria).

El impacto de los robots en la fiscalidad y en la seguridad social. ¿Llegaremos a sentencias dictadas por robots?

Respecto a la fiscalidad y a la seguridad social se ha incluido en los informes europeos la necesidad de incorporar mecanismos obligatorios de reporte a las empresas sobre la extensión, proporción y contribución de la robótica y en su caso la inteligencia artificial a los resultados económicas de la compañía a los efectos de contribuciones fiscales y de seguridad social. El tema es muy relevante: está en juego la sostenibilidad de los sistemas tributarios y de protección social a nivel nacional.

En el ámbito del mercado legal, ya existen soluciones de software que permiten con gran automatismo llevar a cabo informes de diligencia debida y de valoración de riesgos en operaciones de M&A sin intervención de abogados y no será extraño en el futuro un mayor uso del software en el asesoramiento legal a clientes e incluso un apoyo mayor de la tecnología y de la programación informática en las decisiones de la Administración o los Tribunales. ¿Llegaremos a sentencias dictadas por un robot?

En este contexto, resulta increíble que las leyes de la robótica escritas por Isaac Asimov en 1940 mantengan vigencia y actualidad.

Según Asimov: 1) Un robot no debe hacer daño a un ser humano ni, por inacción, dejar que este sufra daño; 2) Un robot debe obedecer las órdenes que recibe un ser humano, excepto cuando tales ordenes entran en conflicto con la primera ley; y 3) Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la primera y segunda ley pero, igualmente, un robot no debe hacer daño a la humanidad ni, por omisión, dejar que esta sufra daño.

En resumen, la problemática de la robótica y de la inteligencia artificial no es nueva, pero permanece sin resolver la mayoría de los problemas jurídicos y de compliance (incluidos los laborales) que pueden emerger y, especialmente, cuando el autoaprendizaje de los robots exceda de la programación base que le puso el fabricante o las órdenes directas del dueño del robot. La vinculación de la robótica con los empleos y la interacción de los robots con los trabajadores y, especialmente, con su efecto seguro de eliminación de puestos de trabajo y de desplazamiento o sustitución de empleos debido a una mayor utilización de los robots requerirá también de ajustes y nuevas regulaciones que permitan también la contribución de los robots (o de las compañías que se benefician de ellos) con la seguridad social o con las rentas universales que de una u otra forma acabarán regulándose en muchos mercados laborales.

Referencias Bibliográficas.

Acemoglu, F.; Reestropo.; (2016), "The race between machine and man: Implications of technology for growth factor shares and employment, NBER Working Paper No. 22252, National Bureau of Economic Research, Cambridge, MA.
Baker Mckenzie/Euromoney (2016), "Ghosts in the machine. Artificial intelligence, risks and regulation in financial markets".
Ford, M. (2015), "The rise of the robots: Technology and the threat of a jobless future", Basic Books, New York.
Graetz, G.; Michaels, G (2015), "Robots at work, LSE Centre for Economic Performance, CEP Discussion Paper No 1335, March 2015, LSE. London.
IBA Global Employment Institute (2017), "Artificial Intelligence and Robotics and their impact on the workplace".
Sandbu, M (2017), "Algorithms, as well as robots, put pressure on jobs", Financial Times 7 de abril de 2017.
Waytz, A; Norton, M (2014), "Botsourcing and outsourcing: Robot, British, Chinese and German workers are for thinking -not feeling- jobs".

Atículo publicado originalmente en la revista Telos, en el número enero-junio 2018 

Carlos de la Torre

Of Counsel en el Departamento Laboral de Baker & Mckenzie. Inspector de Trabajo y Seguridad Social Excedente. Presidente de honor del Instituto Europeo de Sostenibilidad, Empleabilidad e Innovación-ISEI EUROPE. Director Académico de Fundación Sagardoy y Profesor de Derecho del Trabajo de UC3M y profesor invitado en distintos foros (IE; CEF; ASEFIGET; Aranzadi; etc.). Licenciado en Derecho. PDD del IESE. Master en RSC del Instituto de Empresa. Ha desempeñado puestos directivos en el Ministerio de Fomento como Subdirector General, en la Embajada de España en Londres como Consejero y en el Ministerio de Economia como Director de Recursos Humanos del Instituto de Crédito Oficial. Miembro del Consejo Académico de FIDE.













Semblanzas Fide

Síguenos en redes sociales
Facebook
Twitter
LinkedIn
YouTube Channel
Rss



¿Quieres recibir nuestras comunicaciones?