La semana anterior comentamos sobre las características importantes que debían tener los algoritmos y los riesgos a los que se enfrentan las empresas que se prevé que los usarán. También, analizamos el avance de los robots de inteligencia artificial que han engañado varias veces a cientos de personas que no logran descifrar si están hablando con una persona o una máquina.  PARTE 1 del Artículo >CLICK AQUÍ< Esta semana, continuamos con el análisis de la posibilidad de que las máquinas algún día reemplacen nuestro trabajo. ¿Es así de fácil? 

Inteligencia Artificial General 

Como comentaba anteriormente, la inteligencia artificial ha alcanzado límites humanos. La meta final era considerada una partida de ajedrez, hasta que Deep Blue, una máquina, ganó un partido contra el campeón mundial Kasparov para convertirse en el nuevo portador del título. [1]

Pero, los algoritmos de inteligencia artificial son caracterizados por un programa con una competencia única. Es decir, Deep Blue es un jugador de ajedrez, pero no quiere decir que puede calcular la posibilidad para obtener un préstamo bancario, tampoco que sabe jugar ajedrez; Deep Blue sabe ganar una partida del juego, nada más. Esto ocurre porque la inteligencia artificial ha logrado programar un domain restricto. Entonces, los algoritmos tienen la habilidad de realizar una sola actividad, lo que los pone en desventaja de una persona. En perspectiva, una abeja puede construir un panal, un castor puede construir un refugio, pero una abeja no puede construir el mismo refugio, ni el castor podrá construir un panal; pero el humano, puede observar el comportamiento de ambos animales e ingeniar una forma para construir un refugio y un panal. [2]

Para entenderlo mejor, la inteligencia artificial, como la de un humano, se debería denominar como “inteligencia artificial general” que es aquella que alcanza la capacidad de realizar más que una sola actividad.   Para explicarlo mejor, imaginemos una tostadora inteligente. Si ponemos un pan en la tostadora, hace su trabajo. Pero ¿qué pasa si se pone un limpión en lugar del pan? Se podrá incendiar y causar más daños en la casa y esto puede ocurrir porque la tostadora no se maneja más allá de su inteligencia programada, no sabe que el pan es pan, ni que el limpión es limpión; hace su trabajo nada más. Es igual que Deep Blue, sus creadores no le enseñaron todos los posibles juegos en respuesta a un movimiento, sino que enseñaron sólo los movimientos que serían necesarios para ganar. [3] Las personas hemos adaptado nuestro cerebro para utilizarlo en miles de formas diferentes.

En el 1800, jamás habríamos imaginado pisar la luna; nuestro cuerpo no fue creado para eso, sin embargo, tenemos la capacidad de hacerlo. [4]   Construir un sistema confiable de Inteligencia Artificial General (IAG), requiere de varios métodos, desde asegurar que el software no tenga errores informáticos, hasta la ética. Lo que tenemos que lograr es que la IAG piense como un ingeniero que se preocupa por temas éticos y no sea sólo un producto con un fin ético. [5] Esto quiere decir que, la ética de la inteligencia artificial, aplicada a la IAG, debería diferenciarse de la ética de las tecnologías no cognitivas en las siguientes áreas: 

  • El comportamiento de la inteligencia artificial puede ser impredecible, sin contar la seguridad, incluso cuando los programadores no cometen errores. 
  • Verificar la seguridad del sistema es un reto, porque debemos verificar lo que hace el sistema en vez de verificar su comportamiento operacional de seguridad. 
  • Conocimiento ético debe ser manejado por los ingenieros. [6] 

El desenlace de esta historia es que las máquinas todavía tienen un largo camino que recorrer para alcanzar un nivel ético adecuado, entonces la AIG debe continuar su desarrollo para llegar a un nivel de criterio humano antes de ser lanzado al mundo definitivamente. 

Estatus moral de las máquinas 

¿Lo veías venir? En Ecuador, hace algunos años, nos convertimos en el primer país en reconocer los derechos de la naturaleza. ¿Seremos los primeros en reconocer los derechos de las máquinas también? Es un tema del que se ha comenzado a hablar: el estatus moral de las máquinas, una guía que nos ayuda a entender que tendremos razones morales para tratarlas de una u otra manera.   

Hemos creado y escrito, con el paso de los años, miles de reglas y leyes que nos dictaminan la manera correcta de cómo debemos vivir, tratar a las personas, animales, a los prisioneros, migrantes, incluso al aire y al espacio. Una persona debe ser tratada con moralidad, pero la palabra moralidad no tiene una definición clara y estricta. [7] Sabemos que no podemos maltratar a una persona, porque esta persona tiene derechos, entonces podemos decir que tiene un estatus moral. 

En el caso de los sistemas de inteligencia artificial, no tienen estatus moral. Nosotros los humanos, cuando un teléfono se daña por completo, lo botamos a la basura – muy pocos tal vez los llevan a los centros de reciclaje, pero mas o menos la historia es así – borramos, manipulamos, programamos y hacemos de nuestros equipos lo que nos place. Entonces, hay dos criterios que vinculan a las máquinas con un estatus moral, que pueden analizarse combinados o individualmente: 

  • Conciencia: la capacidad de experimentar, es decir, de sentir dolor o sufrimiento. 
  • Sabiduría: el conjunto de capacidades asociado a una inteligencia superior como el autoconocimiento o ser un agente responsable. [8] 

La teoría explica que los animales tienen conciencia, entonces tienen estatus moral, pero solo los humanos tienen conciencia y sabiduría, lo que les da un estatus mayor al de los animales. [9] Un objeto, como una máquina o un sistema de inteligencia artificial, si pudiese tener la capacidad de la conciencia, como sentir dolor. Pero, no es como una roca, o un peluche, tiene un estatus mas o menos similar al de un animal, basado en las siguientes ideas: 

  • El principio sustrato de la no discriminación 
  • El principio ontogenia de la no discriminación [10] 

El principio sustrato de la no discriminación 

Si dos seres tienen la misma funcionalidad y conciencia, pero se diferencian solo en el sustrato de la implementación, tienen el mismo estatus moral. [11] El sustrato es relevante siempre y cuando haga una diferencia a la conciencia o la funcionalidad.  

El principio ontogenia de la no discriminación 

Este principio propone que el hecho de que los sistemas de inteligencia artificial sean artificiales, el producto no es relevante al estatus moral. [12] Si dos objetos tienen la misma funcionalidad y conciencia, y solo se diferencian de como llegaron a existir, tienen el mismo estatus moral.  

Conclusión 

La inteligencia artificial nos propone algunos problemas de ética que no se han presentado hasta el día de hoy. El hecho de que los algoritmos de la inteligencia artificial puedan volverse mas “humanos” predice la existencia de muchas complicaciones. Tendremos que luchar contra la inteligencia del hombre para que los algoritmos no sean manipulados, para que tengan una inteligencia moral de decidir que esta bien y que esta mal, que puedan tener un estatus en la sociedad, incluso para que se puedan integrar de manera correcta. Puede ser posible que estemos enfrentándonos a un mundo donde las máquinas también tengan derechos, como todos los otros seres que nos rodean. 

Bibliografía 

  1. https://intelligence.org/files/EthicsofAI.pdf
  2. https://intelligence.org/files/EthicsofAI.pdf
  3. https://intelligence.org/files/EthicsofAI.pdf
  4. https://intelligence.org/files/EthicsofAI.pdf
  5. https://intelligence.org/files/EthicsofAI.pdf
  6. https://intelligence.org/files/EthicsofAI.pdf
  7. https://intelligence.org/files/EthicsofAI.pdf
  8. https://intelligence.org/files/EthicsofAI.pdf
  9. https://intelligence.org/files/EthicsofAI.pdf
  10. https://intelligence.org/files/EthicsofAI.pdf
  11. https://intelligence.org/files/EthicsofAI.pdf
  12. https://intelligence.org/files/EthicsofAI.pdf