La Inteligencia Artificial se está integrando en casi todas las actividades económicas, transforma aspectos fundamentales de sectores esenciales y se está normalizado su manejo a nivel usuario, pero ¿cuenta con el respaldo normativo adecuado para proteger a los usuarios de los daños que pueda causar?
Virginia Martínez, socia de Bird&Bird, nos da las claves de este apremiante reto normativo:
El uso de la Inteligencia Artificial (IA) es un recurso cada vez más utilizado en diferentes procesos de producción y servicios. De hecho, en un momento en el que conceptos como chatbots, ChatGPT o traducción automática se vuelven de uso frecuente, podemos hablar de la “edad de oro” de la IA, que cada día conquista nuevos sectores y usos.
No cabe duda de que el uso de la IA, como todas las tecnologías, presenta múltiples ventajas:
- Mayor eficiencia y productividad en las empresas (por ejemplo, al liberar a los trabajadores de tareas repetitivas).
- Reducción significativa de los errores humanos y sus consecuencias negativas.
- Ayuda a las empresas en la toma de decisiones con la gestión avanzada de grandes cantidades de datos.
- Permite personalizar la experiencia del cliente en determinados servicios.
- Automatiza determinados procesos, reduciendo costes de producción.
Ahora bien, como ocurre con todas las nuevas tecnologías, dichas ventajas llevan aparejadas una serie de riesgos y desventajas. Por ejemplo:
- El elevado coste de su desarrollo (al menos en esta fase inicial de implantación).
- El riesgo de vulneración de derechos (derechos de propiedad intelectual, derechos de imagen, privacidad, etc.)
- O incluso el riesgo de que la IA se use con fines maliciosos.
La creciente aplicación de la IA en todos los sectores, e incluso en nuestra vida cotidiana, nos lleva a hacernos las siguientes preguntas: ¿Son los sistemas o máquinas que utilizan IA lo suficientemente autónomos como para discernir lo que está bien y lo que está mal, lo que es legal o ilegal? ¿Pueden ser, desde un punto de vista jurídico, considerados responsables por sus acciones y los daños que puedan causar a terceros? Si la respuesta es no, ¿en quién recae la responsabilidad real? ¿Son adecuadas las normas y principios vigentes?
En opinión de Bird&Bird, las soluciones previstas en los sistemas europeos de responsabilidad civil (contractual o extracontractual) y en la normativa específica sobre responsabilidad por productos defectuosos no se ajustan correctamente a la naturaleza de esta nueva tecnología y, por tanto, resultan insuficientes o inadecuados para proteger a las víctimas de su uso.
Desafíos de una normativa efectiva
La principal dificultad radica en que las máquinas o sistemas que usan IA se caracterizan por su alto grado de autonomía o capacidad de autoaprendizaje. Esta condición supone la posibilidad de que adopten decisiones no programadas y, por tanto, no previsibles de antemano por el fabricante, propietario o usuario. En estos casos, si se produce un daño a un tercero, no concurriría el requisito de “culpa o negligencia”, presupuesto básico en cualquier régimen de responsabilidad civil.
Por otro lado, podría no existir tampoco “defecto”, propiamente dicho, en el diseño o fabricación del dispositivo, tal y como exige la normativa existente sobre responsabilidad por productos defectuosos. E incluso en el supuesto de que existiera alguna deficiencia, la propia complejidad de los algoritmos o datos técnicos empleados en la fabricación podría suponer la imposibilidad práctica de determinar el origen del fallo y acreditarlo ante los tribunales.
El contexto de la Unión Europea
En este contexto, la UE, con el objetivo de promover la adopción de la IA de forma segura y fiable y de adaptar los regímenes de responsabilidad europeos actuales a su uso, presentó a finales de 2022 dos propuestas legislativas.
- En primer lugar, la Propuesta de Directiva sobre responsabilidad en materia de IA, cuyo objetivo es garantizar que los perjudicados obtengan una protección en materia de responsabilidad civil equivalente a la de daños causados por otros productos. Esta Directiva pretende mitigar el conocido como black box effect o la dificultad a la que se enfrentan los damnificados para probar el acto ilícito, así como la identificación del causante del daño, que provoca en muchos casos la indefensión del aludido. Ante esta situación, la Propuesta de Directiva establece una serie de medidas que favorecen la obtención de la prueba y la identificación de las personas potencialmente responsables. Además, introduce la llamada “presunción de causalidad”, que pretende facilitar la prueba del nexo causal entre el daño y el hecho culposo generado por la IA. Esta Directiva se aplicará a las demandas civiles en las que se ejercitan, con base en responsabilidad por culpa o negligencia, reclamaciones de daños y perjuicios causados por un sistema de IA. La Propuesta está siendo debatida en el Consejo.
- En segundo lugar, la Comisión de la Unión Europea presentó la Propuesta de revisión de la Directiva 85/374/CEE en materia de responsabilidad por los daños causados por productos defectuosos, pues la redacción actual de la Directiva no proporciona una claridad suficiente sobre cómo determinar la responsabilidad por defectos en actualizaciones de software, algoritmos de aprendizaje automático o servicios digitales esenciales para el funcionamiento de un producto. La Propuesta ya fue aprobada por el Parlamento el 12 de marzo de 2024 y está pendiente de aprobarse formalmente por el Consejo.
Estas dos iniciativas legislativas se unen al —quizás más conocido— Reglamento de IA, aprobado por el Consejo de la Unión Europeo el 21 de mayo de 2024, que tiene como objetivo garantizar que los sistemas de Inteligencia Artificial introducidos en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales. Su enfoque está basado en el riesgo que puede derivarse del uso de sistemas de IA, estableciendo requisitos y obligaciones a los diversos participantes en la cadena de valor.
Es evidente, pues, que la Unión Europea ha afrontado la problemática sobre la responsabilidad que puede derivarse del uso de la IA. El problema es que, como ha ocurrido históricamente, la legislación suele ir un paso por detrás de la realidad. Por tanto, hasta que las normas comunitarias no sean plenamente aplicables (y, en el caso de las Directivas, sean transpuestas a los ordenamientos jurídicos nacionales), será necesario recurrir a las herramientas que disponen los ordenamientos jurídicos actuales para proteger a los usuarios de los daños que puede ocasionar el uso de la IA.
Ha colaborado en este artículo…
Virginia Martínez es socia del departamento de Seguros y Reaseguros de Bird & Bird en la oficina de Madrid. Cuenta con más de quince años de experiencia en asuntos regulatorios, mercantiles y procesales de seguros y reaseguros. Ha participado en el diseño de estructuras complejas de distribución de seguros, diseño y negociación de todo tipo de contratos en el sector de seguros y en la preparación y presentación de expedientes administrativos en la Dirección General de Seguros y Fondos de Pensiones.
Durante su trayectoria como abogada, ha participado en disputas y procedimientos de responsabilidad civil, siniestros industriales, responsabilidad de productos defectuosos, siniestros de construcción y resolución de disputas de cobertura.