Un estudio desarrollado por científicos independientes ha revelado una dato preocupante para el futuro: ‘La humanidad no será capaz de controlar la inteligencia artificial’.
Mientras en el mundo el desarrollo de máquinas superinteligentes avanza, un grupo de expertos se ha dado a la tarea de advertir los peligros que esta representa.
El estudio con el importante descubrimiento fue publicado en Jornal of Artificial Intelligence Research. Los expertos utilizaron una serie de cálculos teóricos para explorar las posibilidades de mantener bajo control a una máquina con inteligencia artificial. El hallazgo del estudio es alarmante: ‘sería fundamentalmente imposible controlar este tipo de tecnología’.
Uno de los expertos, Manuel Cebrian, destacó que existen máquinas que realizan tareas independientes sin que los programadores entiendan cómo lo aprendieron.
Lo anterior, representaría en el futuro uno de los peligros más latentes para la raza humana, por tratarse de series superiores casi indestructibles.
‘Una máquina superinteligente (inteligencia artificial) que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron’, dijo Cebrian.
Para el científico esta situación ‘podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad’.
‘Los científicos probaron dos ideas para mantener a una inteligencia artificial superinteligente bajo control. Una de ellas fue aislarla de Internet y de otros dispositivos para limitar su contacto con el mundo exterior, lo que reduciría significativamente su capacidad de responder a las tareas para las que fue diseñada’, indicaron.
El algoritmo utilizado para medir la peligrosidad de las superinteligencia fue el de contención teórico, revelando que sirve para que la máquina no ataque al humano.
Es ese algoritmo es que podría fallar y representar una amenaza. "Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una inteligencia artificial no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable".