Noticias

La Inteligencia Artificial cada vez más cerca de las capacidades humanas

5 septiembre, 2019
Revisa la entrevista al profesor Andrés Páez sobre la charla que dictó en nuestra universidad acerca de inteligencia artificial y la manera en que los nuevos sistemas computacionales toman decisiones.
 

El Magíster en Filosofía UAH organizó la conferencia «¡Siri, no te entiendo! Explicando la Inteligencia Artificial«, charla sobre cómo los nuevos sistemas computacionales toman decisiones, dictada por  Andrés Páez, Profesor Asociado del Departamento de Filosofía de la Universidad de los Andes, Colombia.

El académico conversó sobre este tema con la revista Qué Pasa y afirmó que, en un futuro, algunos investigadores esperan desarrollar sistemas autónomos que actúen y piensen como lo hacemos los humanos.

Sin embargo, dice el académico, falta avanzar para que la Inteligencia Artificial (IA) logre acercarse a la inteligencia humana. En la actualidad, el objetivo de los especialistas es “crear sistemas que aprendan autónomamente con propósitos muy específicos, como la detección del cáncer en imágenes diagnósticas o la filtración del correo basura. Estos sistemas llevan a cabo tareas humanas con un nivel de precisión mucho más alto en mucho menos tiempo, pero no lo hacen imitando los procesos humanos de pensamiento sino a través de algoritmos entrenados para ese propósito”, afirma Páez.

En ese contexto, explica que ya existen sistemas que aprenden de forma independiente a un nivel muy básico, pero todavía no es claro hasta dónde puede llegar este progreso.

¿Amenaza o beneficio?

En el último tiempo ha surgido el debate sobre si la IA podría ser una amenaza o un beneficio para la sociedad, ya que existe el riesgo de que sea usada para la desinformación y la polarización política. “Hay esfuerzos recientes para darle el mejor uso posible a la IA. En 2016 varias compañías de tecnología como Google, Apple, IBM y Microsoft se aliaron para crear la Partnership on AI to Benefit People and Society. Este esfuerzo conjunto busca estudiar y adoptar buenas prácticas en torno a la IA, e identificar objetivos de desarrollo futuro que tengan fines sociales benéficos”, cuenta el académico.

En Chile, un grupo de especialistas y parlamentarios trabaja en una propuesta para que se legisle en IA. Ante eso, Páez afirma que debe ser un objetivo prioritario de los legisladores y que es necesario crear una ley que considere los desafíos que presenta la IA. “El gran reto de los intentos de legislar es lograr un equilibrio entre la protección de derechos como la autonomía y la privacidad de las personas, y el fomento del desarrollo tecnológico”, dijo.

Por eso, avanzar en sistemas computacionales inteligentes debe ir acompañado de una legislación que entienda cuáles son los riesgos presentes y reales.  Uno de los efectos más negativos de la IA sobre las personas es la sensación de enajenación y pérdida de control que genera. El humano no entiende cómo funciona la IA y su vida se ve cada día más afectada por las decisiones automáticas.

El problema –señala Páez- es que estos sistemas computacionales son entrenados para tomar decisiones, pero una vez terminado el proceso de entrenamiento, el algoritmo comienza a funcionar independientemente, sin que sea posible determinar exactamente cómo llega a sus decisiones. Por ejemplo, en 2016 la Unión Europea promulgó el llamado “derecho a una explicación”, es decir el derecho de que una persona, que se vea afectada por una decisión tomada por un algoritmo, obtenga una explicación de esa decisión. Pero nadie puede dar esa respuesta, ni siquiera el creador del sistema puede saber cuál es el algoritmo que la máquina está utilizando para llegar a esa contestación.

Leer la entrevista completa.