Inteligencia Artificial y conducta humana.

Condicionan los algoritmos de inteligencia artificial la conducta humana?

Ava. (Ex-machina)

Prácticamente todas las noticias que hay actualmente sobre Inteligencia Artificial (IA) están relacionadas con el aprendizaje profundo. Éstos algoritmos que utilizan la estadística para encontrar patrones en los datos, y han ido demostrando ser exitosos imitando algunas habilidades de los seres humanos. Pero a pesar de ser el aprendizaje profundo el que ha introducido a la IA en la sociedad, solo representa un pequeño punto en la historia del ser humano en su búsqueda de replicar nuestra propia inteligencia.

Ya mencionamos y tratamos de explicar lo que son las redes neuronales , y sus líneas de investigación mas recientes, sin embargo, ésta técnica no lleva en práctica ni 10 años. Tal y como mencionaba el profesor de ciencias informáticas de la Universidad de Washington (EE.UU) y autor de The Master Algorithm, Pedro Domingos: “Si en 2011 alguien hubiera escrito que en unos años [el aprendizaje profundo] iba a ocupar las portadas de los periódicos y las revistas, habríamos dicho: ‘Wow, está alucinando”.

El profesor Domingo explica que, durante años, los avances en inteligencia artificial estuvieron dominados por repentinos ascensos y caídas de diferentes técnicas. En cada década se ha vivido una competencia acalorada entre diferentes ideas. Después, de vez en cuando, algo cambia, y toda la comunidad se centra en una técnica específica.

Al margen de los derroteros de la investigación de la inteligencia artificial, surgen, a raíz de las implicaciones que tiene ésta tecnología, dilemas morales que resultan mucho mas complejos de resolver. Las máquinas entrenadas para valorar las consecuencias de varias opciones devolverían la responsabilidad de tomas la decisión final a las personas, veamos por qué.

El problema es que éstos algoritmos nunca fueron diseñados para abordar decisiones tan complejas. Están concebidos desde la perspectiva de la resolución de un problema matemático, como maximizar el número de vidas salvadas de soldados o minimizar el número de muertes de los civiles. Cuando comienzan a parecer variables que barajan conceptos mas complejos e intangibles como la “libertad” o el “bienestar”, no existe siempre una solución matemática satisfactoria.

El director de investigación de la Asociación para la IA, Peter Eckersley, ha publicado un artículo en el que analiza este problema. Dice: “Nosotros, como seres humanos, queremos múltiples tareas incompatibles. Existen muchas situaciones de alto riesgo en las que es realmente inapropiado, o incluso peligroso, programar una única función de objetivo que trate de describir la ética.”

Un problema añadido, es que , estos dilemas sin solución no se limitan exclusivamente a los algoritmos. Los expertos en ética llevan décadas estudiándolos y se refieren a ellos como el teoremas de la imposibilidad.

Cerebro humano

El problema del sesgo cognitivo

La inteligencia artificial en realidad no tiene sesgo. La IA no busca que algo sea verdadero o falso en función de razones que no se pueden explicar mediante un razonamiento lógico.

Un equipo de investigadores Checos y Alemanes realizó un estudio recientemente a cerca del efecto que tiene el sesgo cognitivo en la interpretación del resultado utilizado para crear reglas de aprendizaje automático.

Dicha investigación explica cómo hasta 20 tipos diferentes de sesgos cognitivos podrían modificar el desarrollo de las reglas de aprendizaje automático y propone algunos métodos para “descubrirlas”.

Según el estudio, éste tema no se ha investigado antes:

Debido a la falta de investigaciones previas, nuestra revisión transfiere los resultados generales obtenidos en psicología cognitiva al dominio del aprendizaje automático. Necesita ser sucedido por estudios empíricos específicamente dirigidos al dominio de la máquina de aprendizaje.

Resulta complicado para los seres humanos detectar cuando, se está incurriendo en un sesgo cognitivo. Pues los sesgos son una especie de “atajos” que utiliza la mente para no “saturar” la actividad neuronal, el problema es que muchas veces ese atajo carece de explicación racional y es ahí donde esta el problema. Dicha circunstancia, unida al rápido desarrollo de la tecnología dificulta aún más los estudios referentes a los sesgos cognitivos en el campo de la inteligencia artificial.

Respecto a la responsabilidad que adquieren las máquinas ante éste tipo de comportamientos, vivimos en una atmósfera de constante cambio, pues en última instancia, los responsables de lo que pueda llegar a decidir o no una inteligencia artificial son los desarrolladores de la misma, sin embargo, puede ocurrir que se desplace dicha responsabilidad como ocurrió en el sonado caso de Tay, la inteligencia artificial que creó Microsoft y que acabó por desconectar, precisamente por llegar a perder el control sobre las acciones y decisiones que ésta estaba tomando.

La complejidad de tomar decisiones.

Es sabido que las grandes compañías de tecnología utilizan los datos de sus usuarios para generar negocio. Las plataformas de búsqueda y compras basan sus ofertas en lo que saben de nosotros. Éstos algoritmos ordenan y jerarquizan la abrumadora cantidad de información que consumimos.

Éste comportamiento no es exclusivo del motor de Google que nos muestra resultados personalizados en función de nuestras búsquedas anteriores o ubicación geográfica. También son utilizados para otros fines: desde inferir riesgos de enfermedades graves antes de que aparezcan hasta guiar la contratación de un nuevo empleado en una compañía.

Esta ubicuidad plantea una serie de preguntas: ¿Qué pasa cuando las huellas que dejamos online, pensando que son privadas y nos pertenecen, son usadas por otros para tomar decisiones sobre nosotros? ¿Hasta qué punto somos conscientes de la incidencia que los softwares basados en algoritmos de aprendizaje tienen en nuestra vida cotidiana? ¿Las decisiones tomadas por máquinas contribuyen a un mundo más “objetivo” o más opaco?

Desde influir en la elección de Trump como presidente de los Estados Unidos, hasta la organización de la sociedad civil en la Primavera Árabe, el papel de los algoritmos ha sido notorio en éstos últimos años.

Como menciona éste artículo de The Atlantic, Netflix también utilizó ésta tecnología para crear sus “géneros personalizados” los cuales han llegado a personalizar hasta el absurdo.