Opinión: “¿Qué haremos cuando la inteligencia artificial mate?”
Por Dr. Roberto Navarro-Dolmestch, académico Escuela de Derecho de la Universidad Católica del Maule y expositor en Congreso Futuro 2024.
En 2013 Gabriel Hallevy publicó su libro “Cuando los robots matan; la inteligencia artificial bajo el derecho penal” (When robots kill; artificial Intelligence under criminal law, Northeastern University Press). Este trabajo inauguró definitivamente una discusión que se prolonga hasta nuestros días y en la que no se ha llegado a una respuesta de consenso. Como el título del libro lo anticipa, la discusión trata sobre la forma en la que, como sociedad, deberíamos reaccionar frente a entidades dotadas de inteligencia artificial (IA) que ejecuten conductas que calcen en lo que la ley define como delito penal; en otras palabras, cuando las máquinas inteligentes ejecuten conductas que, realizadas por un ser humano, podríamos considerarlas delictivas.
Se trata, por ejemplo, del desarrollo de una máquina inteligente que en forma autónoma pueda decidir matar o herir a una o más personas, es decir, un homicidio o lesiones; o de una que actúa en el mercado (lo que se conoce como e-trade) y ‘aprende’ que al entregar información falsa a los demás actores, puede maximizar sus utilidades, lo que para nosotros, los seres humanos, sería constitutivo de alguna forma de defraudación penalmente sancionable. Y la lista de ejemplos podría seguir extensamente.
La IA es un conjunto heterogéneo de tecnologías informáticas que se han ido desarrollando desde diferentes enfoques. La IA se concibió en sus orígenes, a mediados del siglo XX, como «una especie de consultor: algo que podía recibir información y luego responder preguntas» [1, p. 9]. Una aspiración muy modesta si se la compara con lo que actualmente se espera de la IA: que esté dotada con la capacidad de percibir el entorno en el que se desenvuelve y de actuar e influir directamente sobre él [1, p. 9], [2, pp. 54-ss].
La diferencia entre la IA y las tecnologías informáticas convencionales radica en que la primera tiene capacidad para actuar en forma autónoma, interactiva y adaptablemente [3, pp. 357–358]. Esas capacidades técnicas, que emulan capacidades humanas, unidas al desarrollo de un poder de procesamiento informático de volumen sin precedentes, ha permitido delegar a las máquinas inteligentes acciones que, hasta su surgimiento, eran de nuestro dominio exclusivo.
Todo ello ha producido un escenario de interacción directa de las máquinas inteligentes con las personas, en el que la forma en la que los dispositivos se comporten es un problema central. Uno de los desafíos que enfrentan los científicos es el desarrollo de máquinas inteligentes éticas [5], [6], capaces de presentar un comportamiento normativo [7, pp. 62-ss] que les permita interactuar con los seres humanos, sin causar daños y respetando las normas.
La necesidad de asegurar comportamientos no dañinos para los seres humanos es especialmente relevante en los denominados ‘robots sociales’, es decir, aquellos dispositivos inteligentes que se diseñan para interactuar en forma directa e, incluso, íntima con las personas, como los de compañía de personas mayores, los de cuidados sanitarios, o aquellos con finalidad terapéuticas [8]–[10]. Una prueba de esta preocupación es la realización de la Conferencia Anual sobre Robots Sociales que en 2022 tuvo su decimocuarta versión; y la existencia de revistas científicas dedicadas a este objeto de estudio (por ejemplo, International Journal of Social Robotics, https://www.springer.com/journal/12369; ACM Transactions on Human-Robot Interaction, https://dl.acm.org/journal/thri; Intelligent Service Robotics, https://www.springer.com/journal/11370; Journal of Robotic Surgery, https://www.springer.com/journal/11701; International Journal of Medical Robotics and Computer Assisted Surgery, https://onlinelibrary.wiley.com/journal/1478596x; International Journal of Humanoid Robotics, https://www.worldscientific.com/worldscinet/ijhr), entre otras. Fuente: Journal Scimago Rank).
A pesar de los esfuerzos empeñados en la tarea de desarrollar máquinas éticas, no está claro aún si ello es posible. Las normas (jurídicas y no jurídicas) son difícilmente traducibles a lenguaje informático que es el que ‘entienden’ las máquinas. Todo parece indicar que, por el momento, no hay tecnología disponible que nos permita asegurar que una máquina inteligente, por su propio diseño o entrenamiento, no vaya a causar daños directamente a las personas, o al medioambiente o a la economía, entre otras áreas. En otras palabras, que es teóricamente posible que una máquina inteligente ejecute alguna conducta –como tomar una decisión, hacer un pronóstico probabilístico o construir inferencias– que mate a alguien, lesione, discrimine o defraude, por nombrar algunas.
El debate en el que el libro de Hallevy ha jugado un papel importante es el de si es necesario, o debido, aplicar el derecho penal a las máquinas inteligentes de la misma forma que lo aplicamos a los seres humanos que cometen un delito.
El debate ha sido arduo.
Están quienes sostienen que el derecho penal no se puede aplicar a las máquinas inteligentes. Los argumentos varían: que las máquinas, por más autónomas que sean, carecen de libertad (libre albedrío) que es la base sobre la que actúa el derecho penal, ya que este sanciona solo a las personas que libre y voluntariamente deciden cometer un delito; que la pena de cárcel (la más típicas de las penas del derecho penal) no puede aplicarse a las máquinas inteligentes, porque sería ilógico pensar en encerrar a un dispositivo en una cárcel; o que la amenaza de la pena no va a tener sobre este tipo de dispositivos el mismo efecto que se espera tiene sobre las personas: disuadirlos de cometer un delito.
En el otro extremo del debate se encuentran quienes sostienen que no hay objeción alguna para aplicar el derecho penal a las máquinas inteligentes. Que entre estos dispositivos no habría diferencias esenciales en los que se refiere al derecho punitivo.
Es cierto que sostener esta última postura soluciona el problema que surgirá cuando la IA mate (si es que ya no ha matado…) y ofrece una solución a la incapacidad de desarrollar máquinas éticas. Pero también es cierto que el problema es mucho más complejo que intentar resolverlo con el derecho penal que es un instrumento que, con relación a los seres humanos, ha dado resultados modestos.
El primer aspecto del problema se relaciona con la entidad de las acciones que estamos dispuestos a delegar en las máquinas inteligentes. Esta pregunta ha sido formulada en general, pero en particular a propósito de los sistemas de armas letales. ¿Es moral y jurídicamente admisible entregarle a un dron militar la decisión de disparar sus armas en un conflicto bélico sin intervención humana directa? La misma pregunta puede llevarse a muchos otros ámbitos: el de la selección automatizada de personas para el otorgamiento de ayudas sociales o para acceder a créditos bancarios; el del control de las fronteras nacionales; el de las atenciones de salud, como la realización de un diagnóstico médico o una intervención quirúrgica; el del acompañamiento de personas mayores o de las que presentan enfermedades psiquiátricas, etc.
El segundo aspecto del problema pasa por recuperar el concepto de dignidad humana. Aun con sus escasos rendimientos, un derecho penal democrático aspira a construirse en torno a la idea de dignidad humana, ya que es una parte del ordenamiento jurídico que debe diseñarse y aplicarse considerando que sus destinatarios son personas. Como las máquinas inteligentes están lejos de ser personas, ontológica y jurídicamente hablando, ¿se justifica aplicarles el derecho penal cuando tales dispositivos carecen de dignidad humana?
Mientras tanto, los informáticos, los filósofos y los juristas mantienen una disputa abierta sobre estos tópicos. Es probable que la realidad que ha impuesto el surgimiento de la IA nos conduzca a tener que desarrollar nuevos instrumentos de regulación, diseñados sobre la base de las características propias y únicas de las tecnologías de IA. Y, lo más importante: estas nuevas tecnologías han llamado a la Humanidad a tomar decisiones cruciales que marcarán nuestro desarrollo social, cultural y económico en el corto y largo plazo.
Referencias:
[1] S. Russell, “Rationality and Intelligence: A Brief Update,” in Fundamental Issues of Artificial Intelligence, V. C. Müller, Ed. Oxon: Springer, 2016, pp. 7–28.
[2] S. Russell and P. Norvig, Artificial intelligence: A modern approach, 4a ed. Harlow: Pearson, 2022.
[3] L. Floridi and J. W. Sanders, “On the morality of artificial agents,” Minds Mach., vol. 14, no. 3, pp. 349–379, 2004, doi: 10.1023/B:MIND.0000035461.63578.9d.
[4] H. Kress-Gazit et al., “Formalizing and Guaranteeing Human-Robot Interaction,” Commun. ACM, vol. 64, no. 9, pp. 78–84, 2021, doi: https://doi.org/10.1145/3433637.
[5] S. L. Anderson, “Machine Metaethics,” in Machine Ethics, M. Anderson and S. L. Anderson, Eds. Cambridge: Cambridge University Press, 2011, pp. 21–27.
[6] C. Allen, I. Smit, and W. Wallach, “Artificial Morality: Top-down, Bottom-up, and Hybrid Approaches,” Ethics Inf. Technol., vol. 7, no. 3, pp. 149–155, 2005, doi: 10.1007/s10676-006-0004-4. [Online]. Available: https://doi.org/10.1007/s10676-006-0004-4
[7] B. Okal and K. O. Arras, “Formalizing Normative Robot Behavior,” in Social Robotics. 8th International Conference, ICSR 2016 Kansas City, MO, USA, November 1–3, 2016 Proceedings, A. Agah, M. A. Salichs, J.-J. Cabibihan, H. He, and A. M. Howard, Eds. Cham: Springer, 2016, pp. 62–71.
[8] M.-A. Williams, “Decision-Theoretic Human-Robot Interaction: Designing Reasonable and Rational Robot Behavior,” in Social Robotics. 8th International Conference, ICSR 2016 Kansas City, MO, USA, November 1–3, 2016 Proceedings, A. Agah, M. A. Salichs, J.-J. Cabibihan, H. He, and A. M. Howard, Eds. Cham: Springer, 2016, pp. 72–82.
[9] J. Vroon, G. Englebienne, and V. Evers, “Responsive Social Agents: Feedback-Sensitive Behavior Generation for Social Interactions,” in Social Robotics. 8th International Conference, ICSR 2016 Kansas City, MO, USA, November 1–3, 2016 Proceedings, A. Agah, M. A. Salichs, J.-J. Cabibihan, H. He, and A. M. Howard, Eds. Cham: Springer, 2016, pp. 126–137.
[10] A. Sharkey, “Can we program or train robots to be good?,” Ethics Inf. Technol., vol. 22, no. 4, pp. 283–295, 2020, doi: https://doi.org/10.1007/s10676-017-9425-5.
“Las opiniones vertidas en esta columna son de exclusiva responsabilidad de quienes las emiten y no representan necesariamente el pensamiento de la Universidad Católica del Maule”.
Crédito fotografía:Imagen de rawpixel.com en Freepik