Menu
  • 01
  • 02
  • 03
  • 04
  • 05
  • 06
  • 07
logo-circulo-ahumada
“Golpe al Estado”

“Golpe al Estado”

El anuncio de la c...

En honor a unos hombres buenos

En honor a unos hombres buenos

Hoy queremos reali...

La Calumnia

La Calumnia

La vulgaridad, el ...

AVGAR, Asociación de Veteranos del GAR y el GREIM de Cantabria, entre otros colectivos recibirán la Mención de Honor Categoría ORO de la Asociación Marqués de las Amarillas el próximo día 13 de mayo en Camaleño (Cantabria)

AVGAR, Asociación de Veteranos del…

El próximo día 13 ...

DOMINGOS BENEMÉRITOS

DOMINGOS BENEMÉRITOS

SUMARIO: DOMINGOS BE...

LA ASOCIACION NACIONAL DE GUARDIAS CIVILES "MARQUES DE LAS AMARILLAS" REALIZA EL PROXIMO 13 DE MAYO SU TRADICIONAL HOMENAJE A LAS VICTIMAS DEL TERROISMO PERTENECIENTES A LAS FUERZAS ARMADAS, CUERPOS DE SEGURIDAD DEL ESTADO Y SEGURIDAD PRIVADA

LA ASOCIACION NACIONAL DE GUARDIAS…

El próximo día 13 ...

Prev Next

NUEVOhospimedicalpatrocinador

Noticias Ciencia y Tecnología

La superinteligencia artificial o cómo acabar con la humanidad en un segundo

  • Escrito por Redacción

CIBERINTELIGENCIA

¿Controlarán algún día las máquinas el mundo? Conforme el avance tecnológico sigue su curso, aumenta la preocupación de que la superinteligencia artificial pueda escapar del control humano. Según Nick Bostorn, director del Instituto para el Futuro de la Humanidad, de ser así, los robots podrían acabar con la humanidad en un segundo.

Bostorm, director del Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, ha explicado en una entrevista a la revista 'Esquire' por qué, desde su punto de vista, tendrían que preocuparnos los avances en la investigación de la superinteligencia artificial.

Este filósofo y matemático sueco señala que las máquinas ya superan al ser humano en esferas como la logística, el reconocimiento automático del habla y la búsqueda de información, si bien es cierto que "aún no disponen del razonamiento como tal". Sin embargo, considera que la creación de la superinteligencia artificial es una cuestión de tiempo y las máquinas podrían llegar a rechazar ser controladas por el hombre.

Mientras que las películas hollywoodienses suelen narrar historias en las que las máquinas de superinteligencia artificial se ven derrotadas por seres humanos, Nick Bostorm sostiene que en la vida real esto sería poco probable. Las máquinas podrían acabar con la humanidad en solo un segundo y "la Tierra se convertiría en un ordenador que se pasaría mil millones de años haciendo cálculos incomprensibles".

En el contexto actual, en el que resulta imposible frenar las investigaciones en el ámbito de la superinteligencia artificial, Nick Bostorm propone "centrarse en el trabajo que pueda reducir los riesgos que supone la superinteligencia artificial incontrolada antes de que sea creada". Para conseguirlo, se debe "fundar una comunidad profesional que una a personas de negocios, científicos e investigadores que dirija también los estudios científicos en la dirección segura y elabore medios de control sobre sus resultados", concluye el famoso científico.

ONE MAGAZINE

Escribir un comentario


Código de seguridad
Refescar

WEBS RECOMENDADAS

Benemérita al día

Actualidad

Cultura y Sociedad

Otras Secciones

Boletín de Noticias

SUSCRÍBETE >> Recibe gratis todas las noticias en tu correo
Términos y Condiciones