Tech & Crypto

Errores de la Ineligencia Artificial: en la búsqueda de culpables

Por 7 septiembre, 2023 No Comments

Un, dos, tres, ¡ya! 1. El software de procesamiento de imágenes de Google Fotos etiquetó erróneamente a una pareja afroamericana como “gorilas”. 2. El software de traducción automática de idiomas de Facebook tradujo erróneamente un posteo en árabe que decía “Buenos días” al idioma hebreo como “háganles daño”, hecho que condujo al arresto de un hombre Palestino en la localidad de Beitar Illit, Israel. 3. La respuesta del chat de Bing citó de manera literal un ejemplo de información errónea del ChatGPT. Estos tres ejemplos del mal funcionamiento de la IA son una mera muestra de los miles de casos existentes y que van en incremento. En consecuencia, se nos plantea una cuestión crítica: quién es el responsable de los errores inducidos por la IA o por los algoritmos: ¿el programador, el fabricante o el usuario?

La responsabilidad debería recaer sobre nosotros. Es una realidad que los marcos regulatorios que imperan en la actualidad no están preparados para la IA. Estos fueron concebidos y aprobados cuando el mal era causado por el hombre, intencionalmente o no, pero siempre con la participación directa de un humano, según lo señalado por un autor experto en el tema. Por tal motivo, no sorprende que las investigaciones actuales sobre responsabilidad se enfoquen sobre los usuarios de algoritmos de IA.

Hay una pequeña caja negra que contiene toda la verdad sobre nosotros. Sin embargo, el mal funcionamiento de la IA no siempre es culpa de los usuarios. Dicho esto, vayamos a los programadores: la dificultad en responsabilizar a las máquinas radica en la impenetrabilidad del proceso de toma de decisiones de la IA. Tal es el caso de los modelos de IA de caja negra que involucran algoritmos muy difíciles de entender, aún para el programador, porque éste no programa explícitamente el algoritmo. Por lo tanto, volvemos al comienzo: ¿quién es el responsable?

Hay más de una respuesta. Como siempre sucede cuando se plantea un tema tan complejo, su abordaje es complejo también. El marco regulatorio (aprobado parcialmente) de la Comunidad Europea contempla una solución que establece un enfoque cuádruple. En primer lugar, los fabricantes de un sistema de AI deberían ser responsables por los daños ocasionados por fallas y/o defectos de sus productos, aún si (dichas fallas o defectos) fueron consecuencia de modificaciones hechas a los productos bajo la supervisión del fabricante después de haber sido colocados en el mercado. En segundo lugar, un operador de un sistema de IA que involucre un alto riesgo de daño a terceros, como por ejemplo robots operados por IA en lugares públicos, debería asumir la plena responsabilidad por los daños que pudiera ocasionar como resultado de tal operación. Adicionalmente, un proveedor de servicios garantiza que el marco técnico ofrece un mayor grado de control que el que posee un propietario o un usuario de un producto o servicio real dotado de IA. Esto debería ser tenido en cuenta a la hora de determinar quién es el principal operador de esta tecnología. Por último, quienes usen una tecnología sin alto riesgo de daño a terceros, deberían -de todas maneras- atenerse a los deberes de seleccionar, operar, monitorear y mantener la tecnología en uso en forma debida. Caso contrario, deberían ser responsables por incumplimiento de tales deberes. Cabe agregar que la regulación propuesta sobre la responsabilidad en el uso de la IA crea una presunción de causalidad que otorga, a quienes reclaman ser indemnizados por daños causados por sistemas operados por IA, una carga de la prueba más razonable y la posibilidad de un reclamo favorable.
En EE.UU, por otra parte, se analiza la posibilidad de responsabilizar a toda persona involucrada en el uso e implementación de sistemas de IA. Asimismo, también hubo debates en torno a la posibilidad de someter los casos que involucran el uso de IA a tribunales con competencia en asuntos tecnológicos. ¿Existe tal cosa?

No estoy muy seguro. Más allá del marco normativo europeo y la postura de los EE. UU., la cuestión relativa a la responsabilidad jurídica derivada del uso indebido de la IA es tan fascinante como difícil de resolver. Fuera del alcance de la norma aplicable, siguen otros interrogantes: ¿podrán los jueces y jurados, con su limitado conocimiento tecnológico, manejar casos de esta índole? ¿Podríamos nosotros? La IA es un terreno inexplorado. La responsabilidad en el uso de la IA es sólo uno de sus compartimentos.

Este artículo fue publicado originalmente en el Miami Independent, (https://miamiindependent.com/)

Dejar comentario