El 18% de los expertos que han sido entrevistados para el nuevo libro del periodista británico, Tom Chivers, aseguran que en el futuro, la humanidad podría peligrar debido a la llegada de la super inteligencia artificial…

Un nuevo libro escrito por el periodista Tom Chivers, analiza el problema que podría suponer un sobre desarrollo de la inteligencia artificial (IA) para el futuro de la existencia de la raza humana.

El autor del libro «La IA no te odia», y colaborador de medios como Buzzfeed y Telegraph, plantea este escenario basándose en los postulados del llamado movimiento «racionalista», una comunidad de especialistas en inteligencia artificial dedicada específicamente en la seguridad en este campo.

Entre los miembros de este grupo de entrevistados por Chivers, destacan diferentes ejecutivos de Silicon Valley, ingenieros, economistas y destacados académicos.

Las ideas del Investigador estadounidense Eliezer Yudkowsky, quien ha tenido reflexiones sobre el potencial peligro de la IA son, son centrales en el libro, y hasta el título de la obra posee su origen una gran cita suya: «La inteligencia artificial ni te odia ni te ama, pero estás hechos de átomos que podrían usar en otra cosa».

Yudkowsky actualmente trabaja en el área de la inteligencia artificial amistosa en el Instituto de Investigación de la Inteligencia Artificial de las Máquinas (MIRI, de acuerdo a sus siglas en inglés), que él mismo creó y fundó en Berkeley, California.

A pesar de no haber concedido una entrevista para el libro, sí accedió a responder preguntas técnicas a través de correos electrónicos.

¿Pero, por qué hay que preocuparse?

En su trabajo, Chivers plantea una cuestión; ¿Qué pasaría si las computadoras alcanzan el nivel de poder hacer todas las tareas mentales que hacen los humanos?

La principal preocupación no es que las máquinas llegan a un punto de inteligencia equiparable al del humano, sino que, al llegar a dicho punto, rápidamente adquieran una «súperingeligencia», superándonos, de esta manera, en cualquier campo de la vida.

Como ejemplo de esto, el autor propone el programa AlphaGo, que ha sido desarrollado por DeepMind y propiedad de Alphabet, la empresa matriz de Google, que fue desarrollado para jugar al Go, un juego de mesa de estrategia chino.

En tan solo un año, el programa dio un salto de tener un nivel semi amateur, hasta vencer al mejor jugador del mundo. Después, una versión mejorada, AlphaGo Zero, consiguió lo mismo en tan solo unos días después de ser activado.

Muchas personas consideran que esto no es posible, sin embargo, son cada vez más los expertos se pronuncian ante esto ¿Qué crees que pueda pasar?

VER TAMBIÉN ▶ Científicos intentarán abrir un portal a universos paralelos (Video)

3 Comentarios

  1. No creo en una posible una inteligencia superior al del ser humano, hasta donde me e dado cuenta y lo que dicen los estudios, la inteligencia va aprendiendo y madurando, es un proceso acumulativo de buenas y malas ideas. ponganse a pensar un ser humano no nace sabiendo, y en el transcurso de su vida com estudios se va volviendo mas sabio, aprendiendo en cada dia nuevas cosas.
    Por este motivo yo pienso que para que exista una inteligencia Artificial superior deberia estar aprendiendo desde el inicio de la humanidad, ahi viene el dicho “mas sabe el diablo por viejo que por diablo”, piensen en esto: No hay computador mas potente que el cerebro humano, si a nosotros con muchos estudios, nos toma años de estudios aprender nuevas cosas, y nuestro cerebro procesa en el dia a dia millones de información, de las cuales unas son buenas y otras erroneas, quien asegura que la inteligencia artificial sea correcta en su pensar?, por eso repito deberia existir una inteligencia artificial procesadora de información diaria x montones y llevar una revision para asegurar su correcto pensar, y llegar en un futuro muy lejano a reconocerlo como sabio segun su aprendizaje, x otras entidades o humanos evolucionados que puedan reconocer lo aprendido..

Dejar respuesta

Please enter your comment!
Please enter your name here