Nuevos desafíos de la responsabilidad civil ante la innovación

New Challenges in Civil Liability Amidst Innovation

Dr. Mariano R. Zurueta
marianozurueta@gmail.com
ORCID: https://orcid.org/0009-0009-5907-7102
Universidad Nacional de Jujuy

Doctor en Derecho (Universidad Nacional de Rosario, 2018), Magister en Derecho Privado (UNR, 2010), Docente de la Cátedra de Derecho Privado (Facultad de Cs. Económicas, Universidad Nacional de Jujuy), y Diplomado en Derecho e Innovación (UNT, 2022). Vocal de la Cámara de Apelaciones en lo Civil, Comercial y Familia de la Provincia de Jujuy.

RECIBIDO: 14/11/2024 - ACEPTADO: 21/11/2024

Resumen:

La inteligencia artificial y la responsabilidad civil (o derecho de daños) se encuentran vinculados desde el momento en que las máquinas procesan grandes volúmenes de información. Cuestiones como la validez de las decisiones que tomen las máquinas sin intervención humana, en particular si causan daños a terceros, son objeto de este trabajo, el cual se propone visibilizar los supuestos dañosos que plantea la tecnología, la inteligencia artificial, los algoritmos y en concreto los vehículos autónomos, los presupuestos de responsabilidad civil, las propuestas regulatorias en el derecho comparado y en la Argentina, de modo que los damnificados puedan recibir una reparación razonable y proporcionada que a la vez evite una excesiva responsabilidad al dueño o usuario.

Palabras clave: algoritmo, inteligencia artificial, vehículos autónomos.

Abstract:

Artificial intelligence and civil liability (or tort law) are connected from the moment machines process large volumes of information. Issues such as the validity of decisions made by machines without human intervention, particularly if they cause harm to third parties, are the focus of this work, which aims to highlight the potential damages posed by technology, artificial intelligence, algorithms, and specifically autonomous vehicles. It examines the foundations of civil liability, regulatory proposals in comparative law and in Argentina, so that victims can receive reasonable and proportionate compensation while avoiding excessive liability for the owner or user.

Keywords: algorithm, artificial intelligence, autonomous vehicles

La tecnología desde hace varias décadas que viene produciendo cambios drásticos en nuestras costumbres (v.gr., TV, radio, teléfono, celular, internet)1, situación que se ha visto agravada (por su preocupación) con el arribo de la inteligencia artificial2, y todo lo que aún falta por descubrir de este nuevo invento, no siendo, ciertamente, el derecho ajeno a ello.

Esta situación de confort y beneficios que aportan los aparatos tecnológicos para la vida de los seres humanos también en muchos casos traen aparejados riesgos y perjuicios para terceros (v.gr., accidentes de tránsito3, supuestos de electrocución, etc.), lo que supuso que en el siglo XX debiera adoptarse la teoría del riesgo creado para dar respuesta legal a esos casos en donde la culpa no resultaba suficiente para imputar al autor material del hecho dañoso (factor objetivo de atribución - arts. 1757, 1758, 1759, 1762 y 1769 CCCN)4.

En los últimos años el desarrollo tecnológico evidencia nuevos supuestos de responsabilidad civil para analizar, en donde el intérprete jurídico debe dar respuesta de justa reparación frente a estos nuevos casos de lesión a la integridad psicofísica y/o patrimonial a fin de garantizar el principio de no dañar a otros (alterum non laedere)5, sin perjuicio –claro está– del debate necesario que ello supone entre los operadores jurídicos.

La inteligencia artificial6 permite la resolución de problemas, la búsqueda de resultados y la adopción de decisiones en poco tiempo mediante la utilización de datos y algoritmos; con ello, lo que intenta la IA es imitar la mente humana por medio de programación de sistemas que aprenden autónomamente7, sobre la base de un conjunto de datos sobre los cuales un algoritmo hace una predicción (Danesi, 2021)8.

Si bien no existe consenso en torno al concepto de IA, sí se puede afirmar que es un hito tecnológico que posee habilidades propias de los seres humanos. Quizás, el primer motivo por el cual no haya una definición aceptada de la IA, se debe a que versa sobre una tecnología multidisciplinaria y en plena evolución, cuyos alcances y limitaciones aún no están demarcados; sin embargo, resulta sumamente importante tener en cuenta que los datos –en este contexto– desempeñan un rol fundamental, porque todo el sistema se nutre, mueve y retroalimenta, en función de grandes volúmenes de ellos. Son el alma de la inteligencia artificial.

También puede suceder que esos datos –o conjuntos de datos– presenten sesgos, que pueden estar establecidos en el propio conjunto, o ser infundidos por la intervención humana. Ello, desde luego, afecta la transparencia y explicabilidad del sistema, máxime cuando tienen incidencia negativa sobre las personas, porque podrían provocar un trato discriminatorio, que vulnere su derecho a la igualdad y a la no discriminación (Sánchez Caparrós, 2021, p. 302 y ss.).

Aparece, de este modo, la noción de "sesgo algorítmico", entendido este como las respuestas que dan los sistemas de IA, pero que aparecen parciales, prejuiciosas, distorsionadas, y que se agravan cuando afectan derechos humanos, producen discriminaciones, trabajan sobre la base de estereotipos y profundizan diferencias en la sociedad (Danesi, 2021). Estos sesgos pueden ser de diversa índole —históricos, injustos, de interacción, latente y de selección—, pero en todos, lo que subyace y está presente, es la utilización de datos de manera prejuiciosa, y con fines discriminatorios.

Lo anterior destierra la creencia de que los sistemas de IA son neutros y deciden objetivamente, pues "lo cierto es que se entrenan con datos. Si estos datos incluyen sesgos injustos, estos sistemas van a amplificar estructuralmente estos prejuicios provenientes de los datos, consolidando y expandiendo la discriminación, dando lugar a un círculo vicioso que terminará por excluir definitivamente a muchas personas, sobre todo a aquellas que pertenecen a grupos vulnerables" (Sánchez Caparrós, 2021, p. 308).

La situación descripta se agrava frente a técnicas conocidas como de "caja negra", es decir, aquellas a las que –por la manera en que están diseñados los sistemas y su complejidad– no se puede tener acceso, no resulta posible explicar la secuencia que utilizan y que, por tanto, resultan difíciles de controlar. Como derivación, es claro que, si un sistema de IA es entrenado con datos afectados por algún sesgo, los resultados van a expresar el mismo sesgo, reproduciéndolo y hasta ampliándolo, provocando así perjuicios de diversa índole.

I - INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD CIVIL

La IA y la responsabilidad civil se encuentran vinculados desde el momento en que las máquinas procesan grandes volúmenes de información (en mucho mayor cantidad que la mente humana). Sin embargo, ¿serán válidas o justas las decisiones que tomen por ellas mismas sin intervención humana? ¿Y qué ocurre si con la decisión de la máquina se causan daños a terceros? Y, en dicho caso, ¿quién responde por la eventual indemnización debida? ¿Deben los fabricantes informar los factores que conllevan a adoptar una determinada decisión (en relación con los sesgos algorítmicos)?

En el caso de vehículos autónomos, y los posibles daños a ocasionar, es un tema complejo y en continua evolución, ya que los vehículos autónomos son relativamente nuevos, y se ubican en proceso de desarrollo y pruebas, no existiendo a la fecha leyes y regulaciones claras que contemplen el fenómeno en todos los países, sin que esto último ciertamente obste a que el derecho deba dar una respuesta satisfactoria a la víctima.

En forma preliminar, no cabe duda alguna (al menos hoy en día) que las máquinas no se encuentran (todavía) capacitadas para reemplazar a la decisión humana, en lo que respecta a diversos lineamientos, conductas y diversas consideraciones al momento de juzgar; es por ello que se exige que detrás de cada decisión de las máquinas (utilizando IA) exista una intervención humana en algún estadio del proceso, y que permita avalar esa decisión de la IA9.

1. Derecho europeo.

Se conocen supuestos de regulación legal en la Unión Europea por parte del Parlamento Europeo, en calidad de recomendaciones (Resoluciones 2020/2012 (INL) y 2020/2014 (INL) (Mohadeb et al., 2021, p. 263) a fin de desarrollar los principios éticos y obligaciones jurídicas ligados al desarrollo, la implantación y el uso de la IA, la robótica y otras tecnologías relacionadas10.

El Parlamento Europeo considera que no es necesario atribuir personalidad jurídica a los sistemas de IA, puesto que hacerlo socavaría el principio fundamental de que los seres humanos, en última instancia, deben seguir siendo responsables de los actos y omisiones de los sistemas de IA. Se persigue que siempre haya una persona responsable que ayude a dar legitimidad a la operación, proporcione una fuente clara de autoridad sobre su funcionamiento, proporcione un elemento de justificación para la decisión interna y proporcione un punto de contacto cuando los usuarios busquen algún recurso en virtud de algún agravio o daño que surja del sistema de IA.

De todos modos, la realidad demuestra que muchas veces resulta problemático identificar a la persona responsable desde un punto de vista práctico (Buyers y Barty, citados por Mohadeb et al., 2021, p. 266). La opacidad, la conectividad y la autonomía de los sistemas de IA podrían llegar a dificultar, o incluso imposibilitar en la práctica, la trazabilidad de acciones perjudiciales específicas de los sistemas de IA hasta una intervención humana específica o decisiones de diseño, y que para evitar una exoneración de responsabilidad, el Parlamento Europeo deja constancia que, de conformidad con conceptos de responsabilidad civil ampliamente aceptados, se puede recurrir a asignar responsabilidad a las diferentes personas que participan en la cadena de valor que, a su forma y en su proporción, crean, mantienen o controlan el riesgo asociado al sistema de IA.

En tal sentido, según el "Informe sobre las implicaciones de seguridad y responsabilidad de la inteligencia artificial, la Internet de las cosas y la robótica" de la Comisión Europea, la responsabilidad debería residir en el operador, sobre bases objetivas y de manera coherente con la legislación sobre responsabilidad por productos defectuosos dentro de la Unión Europea11, la cual ha demostrado ser durante muchos años un medio eficaz para obtener una indemnización por un daño causado por un producto defectuoso, pero que, no obstante, debe ser objeto de una revisión para adaptarla al mundo actual –es decir, digital– y abordar los retos que plantean las tecnologías digitales emergentes. De esta forma, se garantizaría un elevado nivel de protección efectiva de los consumidores y de seguridad jurídica para ellos y las empresas.

En cuanto a los modelos de regímenes de responsabilidad civil derivada de los sistemas de IA, el Parlamento Europeo propone dos regímenes de acuerdo con su grado de riesgo:

a) Un régimen objetivo de responsabilidad para sistemas de alto riesgo de IA: en donde el operador no podrá eludir su responsabilidad demostrando la debida diligencia o que el daño fue causado por una actividad, un dispositivo o un proceso autónomo gobernado por su sistema de IA; la única eximente es el daño causado por fuerza mayor; y estableciendo un tope indemnizatorio máximo de 2 millones de euros en caso de fallecimiento y/o daños físicos, y de 1 millón de euros para daños morales significativos que resulten en una pérdida económica verificable o en daños a la propiedad; y la contratación obligatoria de un seguro de responsabilidad civil acorde con los montos establecidos; y

b) un régimen de responsabilidad subjetivo para sistemas de bajo riesgo de IA: en este caso, el operador estará sujeto a responsabilidad subjetiva (culpa o dolo) respecto de todo daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernado por el sistema de IA, y no será responsable si: 1) el sistema de IA se activó sin su conocimiento, al tiempo que se tomaron todas las medidas razonables y necesarias para evitar dicha activación fuera del control del operador; 2) se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA apropiado para las tareas y las capacidades adecuadas, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles. Además, no será responsable si el daño o perjuicio ha sido provocado por un caso de fuerza mayor. Sin embargo, se prevé una garantía para el usuario o consumidor al responsabilizarse igualmente al operador si el daño fue causado por un tercero que haya interferido en el sistema de IA al modificar su funcionamiento si dicho tercero es ilocalizable o resulte insolvente (Comisión Europea, 2020, 64).

En los Estados Unidos no existe legislación federal sobre responsabilidad civil en materia de IA. Sin embargo, algunos estados han regulado algunos aspectos de esta temática, en concreto sobre vehículos autónomos, condiciones para que puedan operar, requisitos de testeo y funcionamiento en la ciudad, estableciendo responsabilidades tanto para el conductor como los fabricantes por cualquier defecto en sus productos, ya sea por fallas en su tecnología o en el diseño del vehículo.

2. Derecho argentino.

En la Argentina no existe una regulación específica sobre responsabilidad civil en materia de IA, existiendo diversas opiniones al respecto, ya que para algunos juristas es necesaria su reglamentación específica mientras que, para otros, puede resultar más conveniente, si resulta posible, encuadrar las situaciones que surjan con motivo del uso de la IA en las normas jurídicas ya existentes.

El Código Civil y Comercial (CCCN), y otras leyes eventualmente aplicables (Ley de Defensa del Consumidor Nº 24.240 y modif., Ley de Defensa de la Competencia Nº 27.742, Ley de Lealtad Comercial Nº 22.802, etc.), ¿son capaces de dar una respuesta satisfactoria a este fenómeno de provocación de daños a terceros por medio de utilización de artefactos que emplean IA?

Por lo pronto, si bien podría llegar a pensarse que los presupuestos de la responsabilidad civil se mantienen vigentes en tales supuestos (daño, antijuridicidad, relación causal y factor de atribución), mayores dudas se plantean en lo que respecta a los sujetos u otras cuestiones (como son el autoaprendizaje y autonomía de la IA) que difieren de los supuestos clásicos del derecho de daños.

Para ello, la doctrina sugiere aplicar los principios generales vigentes del derecho contractual, de las normas sobre propiedad intelectual, defensa del consumidor y privacidad y protección de datos personales vigentes, así como las del Código Civil y Comercial de la Nación (Repond, 2020; Fossaceca y Moreyra, 2020; Danesi, 2018a, p. 8).

En nuestro derecho una herramienta fundamental en este aspecto radica en la prevención del daño, la cual se encuentra regulada en el art. 1710 y ss. del CCCN. La tutela sustancial inhibitoria tiene como objeto directo la prevención del daño mediante una orden para impedir (en caso de amenaza de lesión) o bien para que cese su producción (si la actividad ofensiva ya se ha iniciado y es previsible su continuación o reiteración... Constituye una protección judicial de urgencia sustantiva y no cautelar y cuyos presupuestos son un comportamiento lesivo, un daño injusto y una relación de causalidad adecuada entre dicho comportamiento y el daño causado)12.

El mandato constitucional previsto en el art. 43 CN (en concordancia con los arts. 1.710/1.713, y 1.973 del CCCN) es claro: se debe primero evitar el daño. Es que el Código Civil y Comercial consagra de manera expresa y absolutamente amplia un deber general de prevención, que hace a la llamada responsabilidad civil preventiva13.

Con ello, los requisitos de procedencia de la acción preventiva son (Pizarro y Vallespinos, 2018; Zavala de González, p. 211; Ossola, p. 115):

a) una acción u omisión con razonable aptitud causal para generar un peligro de daño no justificado;

b) la conducta riesgosa debe ser antijurídica;

c) razonable previsibilidad de la producción, continuidad o agravamiento del resultado nocivo, ponderada en base a estándares de causalidad adecuada;

d) amenaza de un interés no ilegítimo, patrimonial o extrapatrimonial, individual o colectivo del accionante; y

e) posibilidad material de detener el efecto lesivo.

En materia de IA, los expertos se preguntan si quien ha desarrollado una IA determinada tiene un "deber legal" de prevenir daños causados a terceros, cuando tiene conocimiento (o lo debiera tener) de que su herramienta es apta para causar daños, y que con el aporte o información a proveer por el fabricante puede evitarlos, mitigarlos o hacerlos cesar. A ello, se responde que el deber de prevención recaerá en todos aquellos sujetos que, material o jurídicamente, estén en condiciones de prevenir daños, siempre y cuando no se requiera un esfuerzo excesivo y/o extraordinario del sujeto al cual se le atribuiría responsabilidad.

Así, los propietarios de una IA que tengan aptitud para prevenir daños podrán ser legitimados pasivos de los planteos o acciones entabladas por aquellas personas que acrediten un interés razonable en la prevención del daño (cf. arts. 1710 y 1711, CCCN; Chamatropulos, 2017). En nuestro país se considera que la obligación en cabeza de quien desarrolla una IA determinada, además de no exigírsele un accionar anormal o extraordinario, deberá tener presente dos limitaciones de importante impacto práctico: la menor restricción posible de derechos del sujeto en cuestión y la exigencia de que lo que se le peticiona constituya el medio más idóneo para lograr el objetivo preventivo (cf. art. 1713, CCCN). Caso contrario, el deber de prevención no nacerá (Chamatropulos, 2017).

En nuestro ordenamiento legal a los daños causados por la IA pueden serle aplicables la responsabilidad objetiva contenida en los arts. 1757 (hecho de las cosas y actividades riesgosas), 1758 (sujetos responsables) y 1769 por los daños derivados de los accidentes de tráfico (de eventual aplicación a los vehículos autónomos), supuestos en los cuales el dueño y el guardián de la cosa responden en forma concurrente, no pudiendo eximirse por errores en la conducción causados por la IA, tal como se concluyó en las XIX Jornadas Nacionales de Derecho Civil celebradas en septiembre de 2024 en Pilar (véase también: Danesi, 2018a)14.

En lo que respecta a los eximentes de responsabilidad, se descarta la eventual autorización administrativa que pudiere existir, o el cumplimiento de técnicas de prevención (art. 1757 CCCN), con lo cual queda únicamente como supuesto de eximición de responsabilidad el caso fortuito o fuerza mayor (art. 1730 CCCN).

Además, en esta materia, se deberá tener especial consideración por el software, el cual puede ser reparado, actualizado o revisado por el productor del sistema, por componentes individuales del sistema o por terceros, de una manera que puede afectar la seguridad de estas tecnologías (Danesi, 2018a). En estos casos, las tareas mencionadas respecto al software están a cargo de un sujeto en particular que, para la doctrina, puede revestir el carácter de "guardián", definido en el art. 1758 del CCCN: "se considera guardián a quien ejerce, por sí o por terceros, el uso, la dirección y el control de la cosa, o a quien obtiene un provecho de ella", siendo el productor el sujeto responsable (conf. arts. 1757, 1758 y 1769 del CCCN), en tanto y en cuenta no acredite (para eximirse) que la cosa fue usada en contra de su voluntad expresa o presunta (art. 1758 CCCN), y de dudosa aplicación en el ámbito de la responsabilidad de defensa del consumidor o por productos defectuosos (Danesi, 2018a, p. 26).

3. Para ir sentando algunas ideas.

Como se vio ut-supra, algunos autores proponen un régimen de responsabilidad autónomo de la IA, atribuyendo una personalidad jurídica a los robots programados con IA. De esta forma, consideran la idea de una "personalidad electrónica" (Valente, 2019, p. 24). En estos casos, los robots o "personas ciber físicas" serán capaces de desarrollar una individualidad/autonomía "propia o autónoma" a partir de su interacción independiente con el entorno, por lo que consideran estos autores que no sería justo imputar a los programadores y/o fabricantes las decisiones que tomen estas entidades con base en su propio aprendizaje (Zapata Sevilla, 2019).

Esta postura entiende que el dictado de una normativa es indispensable, al garantizar una transición digital ordenada y, al mismo tiempo, brindaría certeza jurídica a la sociedad que pudiera verse afectada por ella aún de manera indirecta (García, 2019).

Con ello, el programador sólo será responsable por los daños causados por los robots cuando se encuentren relacionados con defectos en el software, fallos o errores; ya que está en mano del programador la tarea de realizar una adecuada labor de determinación de los patrones de actuación y limitar en base a los derechos fundamentales y libertades humanas a la máquina15. En cambio, de producirse sucesos que no hubieran podido preverse, o que, previstos, fueran inevitables, no parecería correcto atribuirle la responsabilidad al programador.

4. ¿Es obligatorio en materia de producción de IA contratar un seguro?

Se propone la asignación de un seguro que pueda ser responsabilizado por dichos daños causados por la IA, siendo un problema de implementación jurídica dotar al robot de una identificación única, crear un registro e imponer un seguro obligatorio a cargo de quien o quienes, directa o indirectamente, se sirven de su actividad (Valente, 2019, pp. 22-4)16.

En la Unión Europea se propone la creación de un seguro obligatorio (similar al de los vehículos automóviles) con cargo de los fabricantes o a los propietarios y usuarios; o fondos de compensación ante la inexistencia de seguros. Ello supondría que el fabricante, programador o usuario puedan beneficiarse de un régimen de responsabilidad limitada en caso de contribución a un fondo o suscripción de seguros. Otra propuesta es la creación de patrimonios individuales por robot o para todos los robots con el pago único por su introducción al mercado o pagos periódicos, y la creación de un número de matrícula o registro del robot que lo vincule con un fondo en particular. Esto último está vinculado a la idea de la creación de una personalidad electrónica responsable de reparar los daños que pueda causar (con un patrimonio que respalde a la misma)17 según se vio ut-supra.

II - DIVERSAS PROBLEMÁTICAS LEGALES QUE PRESENTA LA IA

Los fabricantes de vehículos autónomos18 y los proveedores de tecnología pueden ser considerados responsables de los accidentes causados por fallas en la tecnología o en el diseño del vehículo. Sin embargo, en los casos en que los conductores humanos también estén involucrados en el accidente, la responsabilidad puede dividirse entre el conductor humano y el fabricante del vehículo autónomo.

La innovación tecnológica, y la IA en particular, genera muchos beneficios en las personas, en su confort, comunicaciones, seguridad, etc., pero al mismo tiempo puede ser muy perjudicial a diversos derechos humanos, como la privacidad, discriminación, accidentes, etc., sumado al hecho de la dificultad para encontrar un responsable a la pluralidad de sujetos intervinientes (fabricantes de software, programadores, operadores, etc.), sin perjuicio de que ello se ve agravado por el hecho de que este tipo de tecnologías requieren de manera continua la actualización del software lo que implica que puede verse comprometida la seguridad del producto original con posibles daños a las personas.

Además, los sistemas de IA –en un primer momento– son programados por una persona, pero luego la IA procesa datos, aprenden de estos y toma decisiones independientes que no necesariamente estarán relacionadas con la programación o el diseño inicial (autonomía), y ello dificulta la atribución de responsabilidad por daños porque las normas vigentes (ya sean las del Código Civil y Comercial o las de la Ley de Defensa del Consumidor) presuponen la trazabilidad del daño (atribuible al dueño o guardián, fabricante, diseñador, operador, usuario), pero en los casos más nuevos estas reglas resultarán insuficientes en la medida que no se podría identificar la parte que causó el daño, esto es, si fue por decisión autónoma de la IA o por un defecto del producto, y allí tendremos un problema de autoría del daño.

Es que en este ámbito identificar la causa de la falla de la IA será la clave para encontrar la relación de causalidad en el régimen del derecho de daños del derecho común, y también lo es para establecer el nexo entre el daño y el defecto en el régimen de la responsabilidad por productos elaborados. Se ha argumentado que a los fines de hacer la IA más explicable, y así superar esta dificultad, los diseñadores deberían revelar los códigos de los algoritmos e implementar alguna forma de registrar todos los aspectos de su funcionamiento (fenómenos de los algoritmos de caja negra), lo que permitiría reconstruir y entender las causas de su comportamiento y facilitaría la atribución de responsabilidad, ya que es sumamente dificultoso rastrear el proceso completo de la operación, siendo útil recurrir a la teoría de las cargas dinámicas, merced a la cual se aligera la labor probatoria del damnificado, emplazándola en cabeza de quien se encuentre en mejores condiciones para ello. En estos casos, serán, sin duda, programadores, productores, entre otros (Melo, 2021).

La multiplicidad de nocimientos que pueden provocarse y la necesidad de precisar su causa han motivado que se exija que pese sobre los productores el deber de equipar sus sistemas con medios de grabación para registrar la información y procesamientos en cada operación tecnológica realizada, ya sea por un robot, ya sea por un algoritmo o cualquier otro producto con IA. A este sistema se lo conoce con la denominación de logging by design. Por medio de este sistema se podrá conocer cómo acontecieron los hechos previos al daño, de modo de conocer la influencia en el perjuicio por parte de la IA19.

El logging debe cumplir las reglas que atañen a los datos personales y secretos comerciales. Se debería permitir el acceso al damnificado, a los productores y a la compañía aseguradora. También debería gozar de sistemas de seguridad que previniesen la alteración de datos. En el caso de que los productores no cumplieran con este deber, se les asignaría una responsabilidad objetiva y deberían responder por los daños ocasionados, no solo materiales, sino también por la falta de colaboración al no equipar la tecnología con el sistema de logging necesario (Fossaceca y Moreyra, 2020).

Estrechamente vinculado con el denominado fenómeno de caja negra se encuentra la naturaleza imprevisible de las IA más nuevas, ya que funcionan sobre la base de aprendizaje no supervisado: tales son los supuestos de IA basados en mecanismos de deep learning. Esta ausencia de previsibilidad exige reflexionar sobre los presupuestos de la responsabilidad civil.

Algunos consideran que esta falta de previsibilidad también obsta a la aplicación del estatuto del consumidor con las normas sobre responsabilidad por productos elaborados en la medida que el fabricante difícilmente podría incluir información acerca de riesgos impredecibles que podría presentar el producto. Así, resultarían inaplicables a este supuesto la doctrina y la jurisprudencia sobre responsabilidad del fabricante por daños causados por defectos de información (Melo, 2021).

Los vehículos autónomos –en determinadas ocasiones– puede que se sepa cómo van a actuar (v.gr.: detenerse ante determinadas señales de tránsito o disminuir la velocidad, o evadir un determinado peligro). Sin embargo, en otras ocasiones (supuestos no previstos por la máquina) habrá incertidumbre y no se va a saber con seguridad, o previsibilidad, cómo van a actuar ante determinados escenarios que plantea el tráfico.

Los conflictos pueden terminar por quedar comprendidos en: ¿qué vida salvar, o qué daño evitar?, ¿salvar la vida del usuario del vehículo o del peatón u otro usuario de la vía?, ¿quién tiene prioridad?, ¿por qué y cuándo se toma esa decisión?, y finalmente el interrogante que surge es si sería posible reducir la toma de decisiones no previstas en el tránsito a cuestiones matemáticas, siendo negativa la respuesta a esa pregunta, ya que no resulta ser suficientemente seguros los cálculos matemáticos en cuanto a previsibilidad (Martínez Mercadal, 2022)20.

Por un lado, es cierto que estos vehículos suponen una mayor seguridad y por momentos deberían ser más predecibles que los humanos, en cuanto a respetar normas y señalización, pero la imprevisibilidad surge precisamente de la complejidad de los algoritmos y de su combinación con la experiencia adquirida; y que precisamente la mejor "decisión" según la diligencia debida del buen padre de familia puede no coincidir con la respuesta matemática (Balkin, 2015, citado por Martínez Mercadal, 2022).

En todo caso, la respuesta resarcitoria a favor de la víctima dentro del derecho de daños debe ponderar que no puede frenarse la investigación tecnológica y sí buscar otro tipo de respuestas, ya que hoy en día el ser humano es cada vez más consumidor de la innovación y desea mayores avances tecnológicos en los productos21.

Dentro de las personas responsables por los accidentes de automotores autónomos tenemos al propio usuario, al dueño del vehículo, al fabricante del vehículo, el fabricante de los componentes del vehículo o el software, las autoridades gubernamentales de control y seguridad vial, etc. (Gurney, 2013, citado por Martínez Mercadal, 2022).

Pero en el caso de los sistemas de vehículos autónomos y más aún los totalmente autónomos e inteligentes, el rol del usuario es bastante pasivo, por lo que surge la siguiente pregunta: ¿los fabricantes deberán responder de todos los accidentes de tránsito? Habrá casos fáciles y claros de resolver imputando responsabilidad objetiva a los fabricantes por productos defectuosos (es decir, falla de fabricación, o la utilización de un diseño que no es acorde con el estado de la ciencia o arte, o falta de información al usuario). Sin embargo, podrán existir otros casos en donde el accidente fue causado por una decisión que –de acuerdo a la fabricación, diseño e información– fue correcta, producto de un cálculo matemático de las posibilidades de la información recibida, y con ello el fabricante estaría exento de responsabilidad.

Algunos autores incluso consideran que ello va a complejizar los juicios de responsabilidad por accidentes de tránsito, ya que la víctima deberá contratar expertos matemáticos y científicos para poder descubrir el error en el algoritmo matemático que causó el accidente, aún en sistemas de responsabilidad objetiva (con fundamento en el derecho del consumidor o por productos defectuosos).

Otra teoría (Gurney, 2016) entiende que el fabricante debe ser considerado no como tal, sino como un conductor fictamente al que se le debe aplicar estándar de conductor razonable ("reasonable autonomus vehicle driver": literalmente, estándar de conducta razonable del conductor autónomo), y con ello evitar las discusiones sobre defecto de fabricación, diseño o información que podrían complejizar el juicio de responsabilidad civil por accidentes de tránsito.

Esta solución, que procura desojarse de los dolores de cabeza de la cuestión del producto defectuoso, también merece reproches y cuestionamientos ¿no termina complejizando aún más el accidente de tránsito ingresando la diligencia debida dentro de los algoritmos?, ¿cuál es la conducta debida por un robot o del fabricante? Los estándares de comportamiento (sea ya el buen padre de familia, el buen hombre de negocios y ahora el buen conductor autónomo) parten de la base del problema inicial planteado: la previsibilidad de conductas. Que es lo que la sociedad, o determinados sectores de ella (la familia, el mercado, o la seguridad vial) esperan de una persona. Pero de una persona, no de un robot dotado de inteligencia artificial con mecanismos de aprendizaje y conductas o comportamientos que escapan del control humano.

Otra postura considera que a los vehículos autónomos se los debe equiparar con el régimen de los animales domésticos, y así el usuario o propietario, en su caso, son guardianes de la cosa por cuando se sirven de la misma en su provecho22.

La propuesta estiva por considerar a los robots como los nuevos animales, y se propone el siguiente esquema: en primer lugar, determinar si estamos ante un caso de responsabilidad del fabricante en caso de accidente en ocasión de producto defectuoso. La propuesta parte de este supuesto, pero no quiere dejar librada toda la responsabilidad a los fabricantes. Absolver al consumidor usuario y responsabilizar al fabricante sobre la base del régimen general de responsabilidad por productos (claro está con el dilema antes expuesto). Si el fabricante es responsable, la solución del accidente de tránsito queda en esos términos. Pero si no lo es, la propuesta es considerar a los robots, como los nuevos animales del siglo XXI en cuanto a la atribución de responsabilidad, imputando la misma al usuario o propietario del vehículo por el accidente causado que no obedezca a un defecto de producto, lo que en nuestro sistema nos reconduce por la responsabilidad por el hecho de las cosas. Los autores postulan que la IA termina por ser más asimilable a un animal doméstico con cierta dosis de previsibilidad; por la información cargada. Expresan que la imprevisibilidad no es total, como puede ser la de un comportamiento de un animal salvaje o feroz en nuestro sistema. Sin embargo, se vuelve a las mismas críticas realizadas al subsistema de responsabilidad por hecho de las cosas, siendo patente la responsabilidad por falta de mantenimiento o de actualización de los sistemas informáticos, pero en otros casos la incertidumbre persiste.

III - CONCLUSIÓN

De todo el desarrollo efectuado en el presente trabajo de lo que a este autor surge claro es que no existe al día de hoy una única propuesta regulatoria correcta, siendo muy novedoso el tema a nivel mundial, y más aún en nuestro derecho argentino, siendo aconsejable y necesaria una regulación en supuestos específicos de daños derivados de IA23.

Particularmente me parece sumamente interesante la constitución de seguros obligatorios a cargo de los dueños y usuarios de dichos vehículos autónomos, pero deberá contar con una adecuada regulación por la autoridad de aplicación de modo de evitar los problemas existentes en materia de seguros en la Argentina, en donde se aprecian muchos casos de impunidad o víctimas sin ser indemnizadas por la insolvencia de las compañías de seguros.

Otra cuestión de la que no surge duda es que se debe proseguir con la investigación y desarrollo de encuentros académicos que aborden esta cuestión puesto que la tecnología (desde hace varias décadas) existe y avanza sumamente rápido en un mundo cada vez más consumerista. A tales efectos será necesario capacitarse en la temática y escuchar propuestas de los estudiosos y expertos en IA con el fin de poder crear normativa acorde a la tecnología en cuestión, normativa que deberá ser permeable a los cambios e innovaciones que suponen la tecnología.

La aplicación del derecho no solo puede incentivar buenas prácticas y un avance acorde y armonioso de la IA, sino también sancionar conductas inapropiadas o ilegales, y otorgando una reparación razonable y proporcionada para aquellos que han sido perjudicados por la IA (Mohadeb et al., 2021, pp. 257-8).

Por último, resultará crucial entender la verdadera naturaleza de estos fenómenos tecnológicos con IA para poder contar con una regulación acorde a ello, de modo que pueda entenderse adecuadamente el fenómeno de la manera más abarcativa, en tutela de las víctimas, pero sin que ello suponga un exceso de responsabilidad sancionatoria en contra del sindicado como responsable.

La doctrina argentina se encuentra abocada al estudio de esta temática24, lo cual celebramos, de modo que los operadores del derecho puedan arribar a soluciones lógicas, fundadas en derecho y sobre todo justas, dando primacía a la tutela del ser humano.

REFERENCIAS

Andorno, L. O. (1995). El denominado proceso urgente (no cautelar) en el derecho argentino como instituto similar a la acción inhibitoria del Derecho italiano, JA 1995-II-887.

Caraballo, M. (2021). Inteligencia artificial, inequidad y discriminación en cajas negras. En Corvalán, Juan G. (dir.). Tratado de inteligencia artificial, La Ley, t. I.

Chamatropulos, D. (2017). Inteligencia artificial, prevención de daños y acceso al consumo sustentable, La Ley, 2017-E-1.

Chartzman Birenbaum, A. (2022). Inteligencia Artificial. El resguardo de datos personales. Los límites necesarios. Nuevos paradigmas, RDLSS 2022-23, 3, TR LALEY AR/DOC/3082/2022.

Comisión Europea. (2020). Informe sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica. COM (2020) 64 Final.

Comité Económico y Social Europeo. (2017). Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad, 2017/C 288/01.

Corvalán, J. G. (2021). Preludio. ¿Qué hay de nuevo, viejo? Bienvenidos a la era de la inteligencia artificial. En Corvalán, J. G. (Dir.). Tratado de inteligencia artificial, La Ley, t. I.

Corvalán et al. (2021). Inteligencia artificial: Bases conceptuales para comprender la revolución de las revoluciones. En Corvalán, J. G. (Dir.). Tratado de inteligencia artificial, La Ley, t. I.

Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. (2018). Inteligencia artificial para Europa. COM (2018) 237.

Danesi, C. C. (2018a). Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos. Suplemento Especial LegalTech 2018, 05/11/2018.

Danesi, C. C. (2018b). ¿Quién responde por los daños ocasionados por los robots?, Revista de Responsabilidad Civil y Seguros, 11.

Danesi, C. C. (2021). Sesgos algorítmicos de género con identidad iberoamericana: las técnicas de reconocimiento facial en la mira. TR LA LEY AR/DOC/1520/2021.

Fossaceca (h.), C. A. y Moreyra, P. (2020). Aproximaciones a la responsabilidad civil por la utilización de inteligencia artificial y derecho de los robots. Una mirada jurídica. RCyS2020-VIII, 20, Cita: TR LALEY AR/DOC/2254/2020.

Galdós, J. M. (2020). Comentario al art. 1711 del Código Civil y Comercial de la Nación. En Lorenzetti (Dir.), Ed. Rubinzal Culzoni, Tomo VIII.

García, Víctor Manuel (2019). Inteligencia artificial: su regulación y desafíos legales. (Primera parte). Medium, 18/2/19. https://medium.com/

Gurney, J. (2016). Imputing Driverhood: Applying a Reasonable Driver Standard to Accidents Caused by Autonomous Vehicles. Forthcoming, Robot Ethics 2.0.

Lorenzetti, R. L. (1995). La tutela civil inhibitoria. La Ley, 1995-C-1217.

Martínez Mercadal, J. J. (2022). El derecho privado ante la robótica y la inteligencia artificial: la prevención de la (hiper)vulnerabilidad. La Ley Online, TR LALEY AR/DOC/1494/2022.

Melo, V. E. (2021). Responsabilidad por daños e inteligencia artificial: ¿vino nuevo en odres viejos?, RCyS2021-III, 3, TR LALEY AR/DOC/1185/2021.

Mohadeb, S. et al. (2021). Inteligencia Artificial y Responsabilidad Civil. Aproximaciones a una regulación. En Danesi (Dir.). Inteligencia Artificial, Tecnologías emergentes y Derecho, Hammurabi.

Peyrano, J. (2015). Noticia sobre la acción preventiva. La Ley, 2015-F-1230.

Picasso, S. (2022). , Tomo VIII. Rubinzal-Código Civil y Comercial de la Nación comentado Culzoni.

Pizarro, R. D. (2013). . Tomo I. Ed. Astrea.Responsabilidad del Estado y del funcionario público.Tomo I. Ed. Astrea.

Pizarro, R. D. y Vallespinos, C. G. (2018). Tratado de la Responsabilidad Civil, Tomo I, Rubinzal Culzoni.

Repond, P. (11 de febrero de 2020). Inteligencia artificial y su marco normativo. https://abogados.com.ar/inteligencia-artificial-y-su-marco-normativo/25187

Rinessi, A. J. (2001). Lesión al crédito, Responsabilidad por daños en el tercer milenio (homenaje a Atilio Alterini). Cámara de Apelaciones en lo Civil y Comercial de Morón, Sala II, Muebles La Sorpresa de Isaac Goldfinger S.R.L. c. Sivori, Guillermo y otros, 11/09/2001.

Martínez, M. V. y Rodríguez, R. O. (2021). Deconstruyendo la inteligencia artificial. En Danesi (Dir.)Inteligencia Artificial, Tecnologías emergentes y Derecho, Hammurabi.

Sánchez Caparrós, M. (2021). Inteligencia artificial, sesgos y categorías sospechosas. Prevenir y mitigar la discriminación algorítmica. En Corvalán, J. G. (Dir.). Tratado de inteligencia artificial. Thomson Reuters La Ley, t. I.

Valente, L. (2019). La persona electrónica. Anales,Facultad de Ciencias Jurídicas y Sociales de la Universidad Nacional de La Plata, Nº 49. https://doi.org/10.24215/25916386e001

Zapata Sevilla, J. (2019). Inteligencia artificial y responsabilidad civil: El caso de las organizaciones descentralizadas autónomas. Repositorio Institucional de la Universidad de Málaga. https://hdl.handle.net/10630/18645

Notas al final

1 La tecnología irrumpe de manera súbita en la vida de los sujetos para darles mayor confort (automotores, celulares, computadoras, etc.) a punto tal de modificar sus costumbres: hoy en día es normal ver personas caminando en la calle, haciendo fila en los bancos, o cualquier otro trámite, mirando un aparato llamado celular sin siquiera mirar a su alrededor, lo que supone la paradoja de conectarse virtualmente con mucha gente, pero sin atender a las presencias físicas de su entorno.

2 También denominada por muchos como la Cuarta Revolución Industrial, cf. Chartzman Birenbaum (2022) y Fossaceca (h.) y Moreyra (2020).

3 En el año 2022 según Luchemos por la Vida, hubo 6.184 muertes por accidentes de tránsito, un 4% de aumento con respecto a 2021 (pero menor al año 2019 que registró 6627 muertes por accidentes de tránsito); algo entendible dado que se continuó incorporando transporte de pasajeros restringido durante la pandemia.https://www.autoweb.com.ar/2023/01/24/accidentes-de-transito-en-2022-hubo-mas-muertos-que-en-2021-y-menos-que-en-pre-pandemia

4 El Código Civil y Comercial define conceptualmente a los factores objetivos en los arts. 1721 y 1722 al afirmar que la atribución de un daño al responsable puede basarse en factores objetivos o subjetivos, siendo que el factor de atribución será objetivo cuando la culpa del agente es irrelevante a los efectos de atribuir responsabilidad. En tales casos, el responsable se libera demostrando la causa ajena (hecho del damnificado, hecho de un tercero por quien no se debe responder, caso fortuito o fuerza mayor, imposibilidad de cumplimiento, uso de la cosa en contra de la voluntad expresa o presunta del dueño o guardián - arts. 1729 a 1732, 1758, 1° párrafo in fine, y conc. CCCN), excepto disposición legal en contrario. Cf. Kemelmajer de Carlucci, A. (Código Civil, Tomo 5), Rinessi (2001).

5 La Corte Suprema de Justicia de la Nación reconoció en tres (3) fallos dictados el mismo día el principio de no dañar a otros como un principio general del derecho y que cuenta con jerarquía constitucional fundado en el art. 19 de la carta magna, y que ciertamente dicho criterio fuera sostenido invariablemente hasta alcanzar su mayor desarrollo en Aquino. Así: CSJN, 5/8/86, Santa Coloma, Luis I. c/ Ferrocarriles Argentinos, JA, 1986-IV-624; CSJN, 5/8/86, Gunther, Fernando Raúl c/ Nación Argentina, ED, 120-522; CSJN, Luján, Honorio c/ Centro Médico del Sud SA, LL, 2000-D-467.

6 Este concepto de IA también engloba muchas otras subáreas como la informática cognitiva (cognitive computing: algoritmos capaces de razonamiento y comprensión de nivel superior al humano), el aprendizaje automático (machine learning: algoritmos capaces de enseñarse a sí mismos tareas), la inteligencia aumentada (augmented intelligence: colaboración entre humanos y máquinas) o la robótica con IA (IA integrada en robots).

7 Esto supone que el sistema crea las reglas con base en los datos que le proporcionamos y luego aplica esas reglas para hacer las predicciones, a la par que aprende de las interacciones que hace una vez que es puesto en circulación. Cf. Danesi, op cit.

8 Los algoritmos son un conjunto de instrucciones o reglas para que ejecute una computadora o robot, y que se utilizan para hacer cálculos, resolver problemas y tomar decisiones, pero ese robot solo puede hacer lo que está programado, solo puede moverse según esas instrucciones, a menos que se lo programe para que aprenda nuevas instrucciones.

9 Se sostiene que "la IA tiene un potencial transformador para muchas partes de la vida, desde la medicina hasta la ley y la democracia; sin embargo, plantea profundas cuestiones éticas, sobre aspectos como la privacidad, la discriminación y el lugar de la toma de decisiones automatizada en la vida humana, que inevitablemente tenemos que afrontar tanto como individuos como sociedades... dado que la IA llegó para quedarse, debemos elevar el nivel de debate en torno a la ética de la IA y alimentar el proceso democrático más amplio entre ciudadanos y legisladores. La regulación y la política de la IA son, en última instancia, asuntos para la toma de decisiones democrática".

10 Por medio de ello la normativa dictada por el Parlamento Europeo persigue dos cuestiones (entre otras): en primer lugar garantizar y asegurar que las personas que sufran daño serán resarcidas de los eventuales perjuicios sufridos, y a cargo del responsable de dichos daños (función resarcitoria); por el otro lado, las empresas responsables deberán cuidar y evitar causar perjuicios a los usuarios de IA, adoptando las medidas técnicas necesarias y extremando los cuidados respectivos (función preventiva), bajo apercibimiento de tener que pagar indemnizaciones altamente costosas.

11 Directiva 85/374/CEE del Consejo, del 25/7/85, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos, disponible en https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=celex%3A31985L0374.

12 Cf. Lorenzetti (1995); y Andorno (1995), receptado por la Corte Suprema de Justicia de la Nación Argentina en el leading case "Camacho Acosta, Máximo c/ Grafi Graf SRL y otro", LL 1997-E-652. Véanse también: Galdós (2020, pp. 305-6), Peyrano (2015) y Pizarro y Vallespinos (2018, pp. 835-6).

13 Despacho unánime de la Comisión 4 de las Jornadas Nacionales de Derecho Civil, La Plata, septiembre/17. Cf. también Pizarro y Vallespinos, op. cit., pp. 816 y 822.

15 Cf. "¿Cómo se debería medir la responsabilidad legal de la IA?", disponible en https://www.syntonize.com/como-medir-responsabilidad-legal-ia/

16 Así, la Unión Europea propone permitir que el fabricante del software, su programador, el propietario y hasta el usuario puedan beneficiarse de un régimen de responsabilidad limitada si aportan a un fondo de compensación, o bien si suscriben conjuntamente un seguro que garantice la compensación de daños o perjuicios causados por un robot. Cf. Danesi (2018b).

17 La propia Unión Europea ha reconocido que: "En el supuesto de que un robot pueda tomar decisiones autónomas, las normas tradicionales no bastarán para generar responsabilidad jurídica por los daños ocasionados por el robot, ya que no permitirán determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado (...)"

18 Estos vehículos autónomos cuentan con un Sistema de Conducción Automatizado (ADS, por su sigla en inglés), consistente en una tecnología instalada en un vehículo motorizado que tiene la capacidad de conducir el vehículo en modo de automatización alta o completa, sin supervisión de un operador humano y posee la capacidad de llevar automáticamente al vehículo a una condición de riesgo mínimo en caso de una falla crítica del vehículo o del sistema u otro evento de emergencia.

19 V.gr., en el supuesto de un accidente entre vehículos automatizados, permitiría reconstruir la cadena causal y descubrir qué rodado ocasionó el choque al no responder a una señal que el otro vehículo habría mandado. Cf. Fossaceca y Moreyra (2020).

20 En el vehículo autónomo inteligente, la ciencia no ha logrado consagrar una previsibilidad cierta ante la complejidad del tránsito. Y cuanta más autonomía tenga, y mayor sea la toma de decisiones, mayor será la incertidumbre e imprevisibilidad.

21 Expresa la Resolución del Parlamento Europeo con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)), 16.2.2017, P8_TA [2017]0051, que "resulta de vital importancia que el legislador pondere las consecuencias jurídicas y éticas sin obstaculizar con ello la innovación".

22 Artículo 1757 CCCN. Hecho de las cosas y actividades riesgosas: "Toda persona responde por el daño causado por el riesgo o vicio de las cosas, o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización. La responsabilidad es objetiva. No son eximentes la autorización administrativa para el uso de la cosa o la realización de la actividad, ni el cumplimiento de las técnicas de prevención".

23 Así lo entienden también, por ejemplo, las Conclusiones de lege ferenda de las XIX Jornadas Nacionales de Derecho Civil celebradas en septiembre de 2024 en Pilar, Buenos Aires. Cf. https://www.austral.edu.ar/wp-content/uploads/2024/10/Comision-3-1.pdf?x52835&x52835

24 Como lo demuestran las XIX Jornadas Nacionales de Derecho Civil celebradas en septiembre de 2024 en Pilar, Buenos Aires, a las que se aludió.