Ética e Inteligencia Artificial

El objetivo final del desarrollo de la inteligencia artificial, lograr que una máquina posea una inteligencia de tipo general similar a la humana, es uno de los propósitos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es equiparable a otros grandes retos científicos como explicar el origen del universo, del cual se conoce fracciones de segundos tras haber comenzado, pero no el comienzo mismo; o descubrir la estructura de la materia, en donde si bien el Modelo Estándar lleva amplia ventaja, no constituye una certeza absoluta.

El principal problema al que se enfrenta la inteligencia artificial es la adquisición de conocimientos de sentido común. Éste constituye el requisito fundamental para que las máquinas actuales sustituyan la inteligencia artificial especializada por una de tipo general.

Por cierto, el concepto de Inteligencia Artificial General o Inteligencia Artificial Fuerte se refiere a una que al menos iguale a una persona promedio y que sea capaz de realizar con éxito cualquier tarea intelectual humana.

 

Una opción interesante para dotar de sentido común a las máquinas se conoce como cognición situada. Consiste en ubicar a las máquinas en entornos reales con el fin de que tengan experiencias que les doten de este sentido común mediante aprendizaje basado en el desarrollo mental. La cognición situada requiere que la inteligencia artificial posea un cuerpo físico. Este resulta fundamental para la inteligencia, ya que los sistemas perceptivo y motor definen lo que un agente puede observar y las interacciones que establece con su entorno en función de sus objetivos.

Precisamente las capacidades más complejas de desarrollar son las que requieren interaccionar con entornos no restringidos: percepción visual y auditiva, comprensión del lenguaje, razonamiento con sentido común y toma de decisiones a partir de información incompleta. Construir sistemas con estas capacidades exige la integración de desarrollos en muchas áreas de la inteligencia artificial. En particular, necesitamos lenguajes de representación de conocimientos que codifiquen información sobre objetos, situaciones, acciones, sus propiedades las relaciones entre ellos y la posibilidad de escenarios. También nos hacen falta nuevos algoritmos que, partiendo de estas representaciones, puedan razonar y aprender de forma robusta y eficiente sobre prácticamente cualquier tema.

A pesar de todos estos desafíos, las herramientas basadas en la inteligencia artificial están cambiando nuestras vidas en aspectos como la salud, la seguridad, la productividad o el ocio, y se espera que a medio plazo tengan un enorme impacto en la energía, el transporte, la educación y las actividades domésticas. Sin embargo, por muy potentes que lleguen a ser las futuras inteligencias artificiales, siempre (o al menos en el futuro cercano) serán distintas a la humana debido a lo determinantes que resultan los cuerpos en los que se ubican. Además, el hecho de ser ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre aspectos éticos en el desarrollo de la inteligencia artificial y, en particular, sobre la conveniencia de dotar de total autonomía a las máquinas.

Estos aspectos científicos y éticos han motivado la creación de congresos con expertos de distintas disciplinas y provenientes de diversos países, dando origen a declaraciones formales sobre los marcos aceptables del desarrollo y uso de la IA.

El establecimiento de límites sociales es fundamental porque en el desarrollo de IA existen líneas de pensamiento que plantean que ciertas cosas nunca van a pasar, por ejemplo que una máquina «intencionalmente» le quite la vida a una persona. Sin embargo, no necesitamos ir a Terminator para pensar en un escenario así. Basta por ejemplo un vehículo autónomo que viaje a una velocidad en que se tope con un grupo de peatones imprudentes y tenga que decidir entre la vida de alguno de ellos o de su pasajero.

 

 

Sin ir más lejos, la Declaración de Barcelona de 2017, destaca seis puntos en el desarrollo y el uso ético de la inteligencia artificial.

Prudencia: la necesidad de ser conscientes de que todavía queda por resolver un gran número de obstáculos científicos y técnicos, en particular el problema del sentido común.

Fiabilidad: que los sistemas de inteligencia artificial deben someterse a pruebas que determinen su fiabilidad y seguridad.

Rendición de cuentas: cuando un sistema toma decisiones, las personas afectadas por ellas tienen que poder recibir, en unos términos de lenguaje que entiendan, una explicación de por qué las ha tomado, y tienen que poder cuestionarlas con argumentos razonados.

Responsabilidad: debe quedar claro si la interacción se hace con una persona o con un sistema de inteligencia artificial, y, en el segundo caso, debe poderse localizar e identificar a los responsables de él.

Autonomía limitada: se necesita disponer de reglas claras que limiten el comportamiento de los sistemas de inteligencia artificial autónomos para que los encargados de desarrollarlos puedan incorporarlos en sus aplicaciones.

Claridad sobre el papel que desempeña el ser humano: en casi cualquier área, la capacidad humana todavía supera con creces la inteligencia artificial, especialmente en el tratamiento de casos que no han aparecido en los conjuntos de datos de ejemplo de los que aprenden los sistemas de inteligencia artificial.

 

Como ven, técnicamente falta un largo camino por recorrer para que un día una máquina sea capaz de comprender las necesidades humanas, empatizar y actuar conforme a ellas. Tampoco se requiere mucha creatividad para verificar que el cumplimiento de estos 6 principios antes mencionados son más un anhelo que una directriz inquebrantable en el día a día de quienes desarrollan estas nuevas tecnologías.

Compartir:

Facebook
Twitter
LinkedIn

Últimos Artículos