Piensa en un escenario que ya no suena a película futurista: un coche con piloto automático provoca un accidente en la A-70 cerca de Elche. O un software médico pasa por alto un síntoma evidente en un paciente. Hace unos años, esto era teoría; hoy es una realidad en los juzgados que nos obliga a plantearnos una cuestión incómoda: si la máquina falla, ¿a quién demandamos?
La tecnología ha entrado en nuestras vidas y despachos a un ritmo frenético, muchas veces dejando atrás a las leyes. Ya no son solo brazos robóticos en una cadena de montaje. Hablamos de algoritmos que deciden si te conceden una hipoteca, chatbots que atienden reclamaciones y sistemas que redactan textos. Pero cuando esa inteligencia artificial causa un daño, sea físico o al bolsillo, el concepto clásico de «culpa» empieza a hacer aguas.
Desde Padilla y Espinosa Abogados, lo tenemos claro: la tecnología es una herramienta increíble, pero no un comodín para lavarse las manos. Vamos a ver cómo la normativa actual y lo que viene de Europa están redibujando las reglas del juego en la responsabilidad civil.
Adiós al miedo a la «Caja Negra»: Europa marca el paso
Durante mucho tiempo existió el temor a que la complejidad técnica sirviera de excusa perfecta. Es lo que llamamos el efecto de «caja negra»: si ni siquiera el programador sabe exactamente por qué la IA tomó esa decisión, ¿cómo vamos a culpar a alguien?
La Unión Europea ha cortado por lo sano con el Reglamento de Inteligencia Artificial (AI Act). La premisa es tajante: un robot no tiene personalidad jurídica. No puedes demandar al software. Por eso, detrás de cada daño siempre habrá una persona o una empresa.
El enfoque europeo es puro sentido común basado en el riesgo. No se mira con la misma lupa a un filtro de correo basura que a un bisturí robótico. La ley busca proteger nuestros derechos sin frenar la innovación, pero exigiendo transparencia. Si hay riesgo, debe haber supervisión humana.
¿Culpa del usuario o fallo del producto?
Para proteger una empresa o reclamar como particular, hay que distinguir dos caminos legales muy diferentes. No es lo mismo que el programa esté mal hecho a que se use mal.
1. Cuando el responsable es el fabricante (Responsabilidad Objetiva)
Si hablamos de sistemas de alto riesgo, la balanza se inclina hacia la responsabilidad objetiva. Esto significa que el desarrollador paga los platos rotos si su sistema tiene un defecto, haya sido negligente o no.
Si un sistema de seguridad industrial falla porque se entrenó con datos incompletos, el fabricante no puede defenderse diciendo que «hizo todo lo que pudo». Poner un producto defectuoso en el mercado genera la obligación de indemnizar. Punto. Aquí lo importante es demostrar que el fallo del algoritmo causó el daño.
2. Cuando el responsable es quien lo usa (Responsabilidad Subjetiva)
Pero cuidado, porque el usuario profesional también juega. Imaginemos una empresa de logística en Alicante que usa un software para optimizar rutas. Si el gestor ignora las alertas de seguridad del programa o lo usa para algo para lo que no estaba pensado y hay un accidente, la culpa es suya.
La IA asiste, no sustituye. Un médico que confía ciegamente en un diagnóstico automático sin hacer las comprobaciones propias de sus servicios médicos podría estar cometiendo una negligencia. La tecnología no te libra de ser diligente en tu trabajo.
La prueba imposible y la «Presunción de Causalidad»
El gran problema para las víctimas siempre ha sido la prueba técnica. ¿Cómo va a demostrar un ciudadano de a pie que el código fuente de un coche autónomo tenía un error en la línea mil? Exigir eso es dejar a la víctima indefensa.
Para arreglar esto, las nuevas normas europeas aplican la presunción de causalidad. Esto simplifica las cosas en el juzgado:
Si la víctima prueba que el proveedor incumplió normas de seguridad.
Demuestra que ha sufrido un daño real.
Y es lógico pensar que ese incumplimiento causó el daño.
Entonces el juez puede presumir que la culpa es de la IA. Y será la empresa tecnológica (que es quien tiene los expertos y los datos) la que tenga que demostrar lo contrario. Se invierte la carga de la prueba para proteger a la parte más débil.
De la teoría a la práctica: Casos reales
A veces la ley se entiende mejor con ejemplos cotidianos. Veamos situaciones que podrían pasarle a cualquiera mañana mismo.
El desastre del asesor financiero robot
Un pequeño inversor usa una plataforma automatizada («robo-advisor») para mover sus ahorros. Un error en el algoritmo vende todo en el peor momento y el cliente pierde una fortuna.
Si es un fallo de programación, responde el desarrollador por producto defectuoso. Pero si el banco no supervisó el algoritmo o no avisó al cliente de los riesgos reales, la entidad financiera sería responsable por falta de diligencia.
Marketing, IA y derechos de autor
Las IAs generativas como ChatGPT o Midjourney son un campo de minas. Si una agencia de marketing en Elche usa una IA para una campaña y la imagen infringe el copyright de un artista, o el texto insulta a alguien, la responsabilidad es de quien publica.
La agencia no puede decir «fue la IA». Al usar la herramienta y cobrar por el resultado, asume la autoría y las consecuencias legales. Revisar lo que genera la máquina es obligatorio.
El coche autónomo y el seguro
¿Y qué pasa con los coches que conducen solos? De momento, el seguro obligatorio sigue cubriendo los daños a terceros. La diferencia es que, tras pagar, la aseguradora podrá reclamar al fabricante del coche si demuestra un fallo técnico. Un accidente de tráfico se convierte así en un pleito de ingeniería industrial.
La supervisión humana no es opcional
La tecnología avanza hacia la autonomía total, pero la responsabilidad jurídica sigue anclada en las personas. Ya sea al diseñar, al entrenar los datos o al usar la herramienta, siempre hay una decisión humana detrás.
Para las empresas, el mensaje es directo: usar inteligencia artificial exige un cumplimiento normativo (compliance) serio. No vale con comprar la licencia del último software; hay que entender sus riesgos, formar al equipo y establecer protocolos de revisión.
En Padilla y Espinosa Abogados vigilamos de cerca estos cambios para que la defensa de nuestros clientes esté a la altura de los nuevos tiempos. Si tu empresa está implementando soluciones de IA o has sufrido daños por un sistema automatizado, necesitas asesoramiento que entienda tanto el Código Civil como la realidad tecnológica. Innovar está bien, pero hacerlo con seguridad jurídica es mejor.
