La humanidad no es capaz de controlar la inteligencia artificial, alertan investigadores – deGerencia.com
NOTICIA

La humanidad no es capaz de controlar la inteligencia artificial, alertan investigadores

Los avances más recientes en materia de inteligencia artificial (IA) han planteado varios dilemas éticos. Quizá uno de los más importantes sea si la humanidad será capaz de controlar las máquinas autónomas.

Cada vez es más común ver robots encargados de tareas domésticas o vehículos autoconducidos que funcionan con IA. Si bien este tipo de tecnología nos facilita la vida, también podría complicarla.

Un grupo internacional de investigadores advirtió sobre los riesgos potenciales de crear software demasiado poderoso e independiente. Usando una serie de cálculos teóricos, los científicos exploraron cómo se podría mantener bajo control una inteligencia artificial. Su conclusión es que sería imposible, según señala el estudio publicado por el portal Journal of Artificial Intelligence Research.

“Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron […], situación que podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad”, aseguró Manuel Cebrian, coautor del estudio, al Instituto Max Planck para el Desarrollo Humano.

Alternativas para controlar la IA

Los científicos experimentaron con dos formas para controlar la inteligencia artificial. Una fue aislarla de Internet y de otros dispositivos, limitando su contacto con el mundo exterior. El problema es que eso reduciría mucho su capacidad para realizar las funciones para las que fue creada.

La otra fue diseñar un “algoritmo de contención teórico” para garantizar que una inteligencia artificial “no pueda dañar a las personas bajo ninguna circunstancia”. Sin embargo, un análisis sobre el paradigma actual de computación mostró que no se puede crear tal algoritmo.

“Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”, explicó Iyad Rahwan, otro de los investigadores.

Según estos cálculos, el problema es que ningún algoritmo puede determinar si una IA produciría daño al mundo. Los investigadores también señalan que posiblemente la humanidad ni siquiera sepa cuándo han llegado las máquinas superinteligentes, porque decidir si un aparato posee una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.



  • Ver original en Alto Nivel
  • Publicado el sábado enero 16, 2021


  • Deja una respuesta

    Tu dirección de correo electrónico no será publicada.

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.