Sábado, 06 de Septiembre de 2025

Actualizada

Viernes, 05 de Septiembre de 2025 a las 10:13:35 horas

1
Miércoles, 13 de Enero de 2021 Tiempo de lectura:

LOS CIENTÍFICOS ADVIERTEN: "LLEGARÁ UN PUNTO EN EL QUE LA INTELIGENCIA ARTIFICIAL SERÁ INCONTROLABLE"

"La humanidad no podrá controlar las máquinas superinteligentes"

Esta es la conclusión a la que ha llegado un equipo de científicos pertenecientes al Instituto Max Planck para el Desarrollo Humano, en Alemania. ¿De qué forma ha logrado obtener esta estremecedora conclusión? El equipo investigador realizó una serie de cálculos teóricos con la finalidad de explorar las posibilidades de los seres humanos (...)

 
 REDACCIÓN CANARIAS SEMANAL

 
 
    Un equipo de científicos pertenecientes al Instituto Max Planck para el Desarrollo Humano (Alemania), ha  llegado a la conclusión que de desarrollarse  como lo están haciendo hasta ahora las máquinas superinteligentes, su control sería imposible por parte de los seres humanos.

 

    Los últimos avances en el campo de la Inteligencia Artificial (IA) han permitido la creación de robots capaces de realizar tareas domésticas, autos autónomos o software, logrando esclarecer  a través de estos instrumentos  misterios insondables para la ciencia.

 

   No obstante,  en la medida que se avanza aún más en esta área, los científicos han empezado a alertar sobre los peligros potenciales  que  producirían con el desarrollo de una superpoderosa inteligencia artificial

 

    El equipo investigadores citados, con objeto de poder corroborar los motivos de su inquietud, ha realizado una serie de cálculos teóricos con la finalidad de  explorar las posibilidades de los seres humanos de mantener bajo control  de aparatos que trabajen con una inteligencia artificial superinteligente. Con zozobra han podido constatar que llega un punto en el desarrollo de estas tecnologías que resultará imposible someter a control humano

 

    "Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan por completo cómo aprendieron una situación que en algún momento podría convertirse en algo incontrolado y peligroso para la humanidad ”, comentó Manuel Cebrian, autor de un artículo dedicado al tema.


 

     Durante el  referido estudio,  publicado recientemente por el "Journal of Artificial Intelligence Research", los científicos experimentaron con dos ideas para mantener bajo control una Inteligencia Artificial súper inteligente. Una de ellas consistió en aislarla de Internet y otros dispositivos, con la finalidad de limitar su contacto con el mundo exterior, lo que reduciría significativamente su capacidad para responder a las demandas a las que estaba asignada.
 

 

      Igualmente  el equipo de científicos

 

"desarrolló un algoritmo de contención teórico  que permita asegurar que la inteligencia artificial superinteligente no pueda dañar a las personas bajo ninguna circunstancia . No obstante, un análisis del paradigma informático actual demostró que se trata de un algoritmo  imposible de construir",

 

aseguró  Iyad Rahwan, uno de los autores del estudio.

 

 

Comentarios (1) Comentar esta noticia
Comentar esta noticia

Normas de participación

Esta es la opinión de los lectores, no la de este medio.

Nos reservamos el derecho a eliminar los comentarios inapropiados.

La participación implica que ha leído y acepta las Normas de Participación y Política de Privacidad

Normas de Participación

Política de privacidad

Por seguridad guardamos tu IP
216.73.216.98

  • Saburo

    Saburo | Viernes, 15 de Enero de 2021 a las 06:12:18 horas

    ¿Y que hay de las tres leyes de la robótica plasmadas por Asimov.? Claro, eso era ciencia ficción y nunca llegaríamos a ese nivel de desarrollo.

    Accede para responder

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.