Mundo | Inteligencia Artificial

Científicos advierten que la humanidad no será capaz de controlar a las máquinas superinte


Por Agencias
Publicada:2021-01-13

Como resultado, los académicos concluyeron que sería fundamentalmente imposible controlar este tipo de tecnología.


Científicos advierten que la humanidad no será capaz de controlar a las máquinas superinteligentes

Actualmente, máquinas con inteligencia artificial realizan determinadas tareas importantes de forma independiente sin que los programadores entiendan cómo aprendieron a ejecutarlas.

Los últimos avances en el campo de la inteligencia artificial (IA) han permitido crear robots capaces de encargarse de las tareas domésticas, autos autónomos o softwares que han logrado esclarecer misterios para la ciencia. Sin embargo, a medida que mayores progresos se realizan en esta área, científicos advierten sobre los potenciales peligros que encierra desarrollar una IA demasiado poderosa.

En este sentido, un grupo internacional de investigadores utilizó una serie de cálculos teóricos para explorar las posibilidades de mantener bajo control a una IA superinteligente. Como resultado, los académicos concluyeron que sería fundamentalmente imposible controlar este tipo de tecnología.

"Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron […], situación que podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad", comentó Manuel Cebrian, coautor de la publicación.  

Durante el estudio, publicado recientemente en Journal of Artificial Intelligence Research, los científicos probaron dos ideas para mantener a una IA superinteligente bajo control. Una de ellas fue aislarla de Internet y de otros dispositivos para limitar su contacto con el mundo exterior, lo que reduciría significativamente su capacidad de responder a las tareas para las que fue diseñada.

Asimismo, el equipo "concibió un algoritmo de contención teórico que asegura que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndola si se considera dañina". No obstante, un análisis sobre el actual paradigma de computación mostró que tal algoritmo no puede ser construido.

"Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable", concluyó Iyad Rahwan, otro de los autores del estudio.


- Lessons from Computability Theory - PDF





Noticias relacionadas de Mundo

✅ Ecommerce cloud native o cómo tener un e-commerce todoterreno
✅ Las grandes tendencias que han marcado la publicidad en el año del coronavirus
✅ Respuesta mundial al coronavirus
✅ Así serán las diferentes vacunas contra Covid-19
✅ Junto con la creciente propagación en el mundo, se ha hablado de una tercera ola de la pandemia.

Te puede interesar!

Paula Narváez renuncia a
Ley Hermógenes, para cas


10 estrellas de cine suec
Nasalferón, las gotas na
La realidad no existe has

estocolmo



Ultimas Noticias

De interés

Consultas Servel Chile
Chile a 40 años del Golpe”  title=”Chile a 40 años del Golpe”  border=
Punto Final”  title=”PuntoFinal”  border=
Premio Nobel
Biblioteca Nacional
Memoria chilena
Cine chileno
Ñuque Mapu
Ñuque Mapu
estocolmo
  • Dirección

  • Stockholm & /126 50
  • +46 (0) xxx xx 31

  • info@estocolmo.se



  • Regiónes


    Suecia

    Africa

    América

    Asia

    Europa

    Oriente Medio

    Temas


    Política

    Cultura

    Salud

    Tecnología

    Chile 40 años del Golpe

    Quienes somos

    estocolmo.se, grundades 1998-06-05. Det var en av den första webbplatsen på spanska, publicerad i Stockholm, Sverige.