Imagina esta situación: estás manejando, la vía tiene un solo carril, se cruza un animal pequeño, como un perro, no alcanzas a frenar y tus únicas opciones son: estrellarte contra un árbol o atropellar el perro. ¿Qué haces? Si tú no te sientes capaz de elegir, ¿qué nos hace pensar que un camión manejado por la inteligencia artificial tendrá la capacidad de elegir? La posibilidad que tenemos hoy en día para crear equipos que “piensan” crea una cantidad de problemas relacionados a la ética, porque es un tema bastante subjetivo; es decir, la definición de ética puede ser diferente para cada persona, aunque existan cosas que parecen obvias, no podemos pensar y asimilar que serán obvias para alguien con un perfil cultural diferente.   

Saber si una máquina está lista para tomar una decisión ética que pueda incluso llegar al punto de saber si este objeto será ético y no hará daño a las personas – como lo hemos visto en las películas donde las máquinas toman el control del mundo – es una cuestión que debemos tomar en cuenta ahora, cuando las máquinas están en pleno desarrollo. Entonces ¿Cuáles son las barreras a las que nos enfrentamos? 

El aprendizaje y los algoritmos 

En el futuro, las decisiones de un préstamo, las podría aprobar un algoritmo que, basado en la historia de pagos de préstamos anteriores e historia crediticia, decida si una persona está calificada o no para obtenerlo. Imaginemos una situación en la que una persona afrodescendiente hace una demanda contra el banco porque alega que la institución no le ha dado el préstamo por sus orígenes raciales. El banco pensara: ¡pero lo hizo una máquina! ¡No es posible que una máquina discrimine! ¿O sí? ¡Ha ocurrido! Hace poco, hubo una demanda hacia una empresa que produce cámaras digitales fotográficas, porque no reconocía a las personas con piel oscura. [1] 

En el caso del banco, puede suceder también que, de hecho, que el algoritmo haga cierta discriminación. Por ejemplo, podría tomar referencia al lugar de residencia para concluir si una persona tiene o no posibilidades económicas, o podría decidir mediante el apellido y las tendencias de este a pagar o no un préstamo. Entonces ¿hasta qué punto puede una máquina tomar una decisión?   

Los expertos consideran que, para poder reemplazar por completo a un humano, las máquinas deben ser manipuladas por algoritmos con las siguientes características: responsables, trasparentes, capaces de auditar, ser incorruptibles, predecibles y evitar la frustración de sus usuarios finales. [2] Adicionalmente, otros riesgos podrían ser relacionados con la seguridad y la ciberseguridad, juntamente con el riesgo de una posición de marketing dominante. Esto quiere decir que el big data puede ser manipulado con el uso de algoritmos para entrar en mercados deseados. [3] Vamos a dar unos ejemplos:  La transparencia es una de las seis características busca dominar en la inteligencia artificial. Es importante que los algoritmos que predicen los resultados superen los pasados conexos a cada persona y ayuden a que ésta logre sus objetivos. [4] 

Entonces, si volvemos a enfocarnos en el caso de los bancos y la discriminación, podemos entender que la decisión de un préstamo bancario debe alcanzar un nivel de criterio lo suficientemente alto. Un algoritmo debería trabajar bajo la doctrina legal stare decisis que explica que “una decisión de un tribunal o un juez, tomada después de un razonamiento sobre una cuestión de Derecho planteada en un caso, y necesaria para el establecimiento del mismo, es una autoridad o precedente obligatorio para el mismo tribunal y para otros tribunales de igual o inferior rango, en subsiguientes casos en que se plantee otra vez la misma cuestión” [5] 

Es decir, el objetivo del sistema jurídico no es buscar optimizar la sociedad, sino proporcionar un ambiente predecible donde las personas pueden optimizar sus vidas. [6] De esta forma, las personas podrán asegurarse de que el sistema bancario tiene reglas claras para dar un préstamo que se basen a precedentes personales, pero no raciales. La precedencia es importante en el grado de que el algoritmo debe decidir en base a ciertas métricas específicas que quizás no las pueda identificar.   Otra característica importante de los algoritmos es el de ser capaces de resistir la manipulación del humano, al igual que el humano debe ser capaz de buscar un responsable cuando el algoritmo sea culpable de algún fallo. Si un sistema falla, ¿a quién se debe culpar? Algunos negocios han decidido no darle la responsabilidad a ninguna persona, sino culpar al sistema mismo, para que ninguna persona se pueda identificar como culpable.  

Algoritmos: ¡Son casi humanos! 

Los robots de inteligencia artificial mejoran día a día. Con el tiempo, han logrado engañar a cientos de personas con conversaciones casi reales. En 2015, un robot llamado Eugene Goostman gano el Reto Turing por primera vez en la historia. [7] En este reto, las personas hablaban con una entidad desconocida y luego debían adivinar si habían estado chateando con una persona o con una máquina. De los participantes, la mitad de ellos, fueron engañados por Eugene, cosa que no había ocurrido jamás. [8]   

Si pensamos en la situación anterior de la persona de raza afrodescendiente que fue negada un préstamo bancario, imaginamos que no está de buen humor. Si esta persona es un vendedor, sus clientes serán quienes paguen las consecuencias de su mal humor. Lamentablemente, las personas nos guiamos por nuestras emociones, cosa que no les pasa a los algoritmos. A los humanos, a veces, les falta amabilidad y atención hacia las otras personas, los robots artificiales pueden canalizar recursos ilimitados para construir relaciones interpersonales. [9] Estas relaciones podrían superar a las personas porque son basadas en cordialidad, lo que podría ponernos a pensar si algún día dejaremos de hacer algunos trabajos.  

Anticipo parte 2 

¿Es posible que las máquinas nos reemplacen por completo? ¿O existen características de los humanos que las máquinas no pueden suplir? Existe un gran debate sobre el temor de perder todos los puestos de trabajo gracias al desarrollo de la tecnología. La próxima semana, veremos si hemos llegado a este punto o no. 

Bibliografía 

  1. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/  
  2. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/  
  3. http://bruegel.org/2018/12/ethics-and-artificial-intelligence/ 
  4. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/  
  5. https://traduccionjuridica.es/el-precedente-judicial-en-el-common-law/ 
  6. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/  
  7. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/  
  8. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/  
  9. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/