Noticias JVTech Uno de los principales expertos en IA tiene claro qué pasará si creamos una IA superinteligente: «Nos va a matar a todos»

Compartir, repartir :

En una columna publicada en Time, un experto en inteligencia del Machine Intelligence Research Institute está muy preocupado por las consecuencias del desarrollo de la IA en la actualidad.

¿La inteligencia artificial se dará cuenta de los escenarios ficticios?

Las películas que representan un mundo gobernado por robots son numerosas. Los expertos de todo el mundo están cada vez más preocupados. Incluso hasta el punto de preguntándome si no nos dirigimos directamente a la pared. La inteligencia artificial no siempre se ha acercado lo suficiente a los humanos como para convertirlos en una amenaza real. Pero hoy muchas cosas han cambiado. Los modelos de IA están mucho más desarrollados y, sobre todo, el progreso avanza cada vez más rápido.

Eliezer Yudkowsky, director del Instituto de Investigación de Inteligencia Artificial explica en
un podio en el tiempo

:

No estamos preparados. No vamos por buen camino para estar preparados en un plazo razonable. No hay plan. Los avances en las capacidades de la IA están muy por delante de los avances en la alineación de la IA o incluso de los avances en la comprensión de lo que sucede dentro de estos sistemas. Si hacemos esto, todos moriremos.

Según él, muchos investigadores están convencidos de que nos dirigimos hacia el desastre. Sin embargo, la mayoría no se atreve a decirlo públicamente. Esto puede deberse a conflictos de intereses o al simple hecho de que puede hacer que parezcan adoradores de las teorías de la conspiración.

Eliezer Yudkowsky explica así que él no
firmó la carta abierta
lo que requiere una parada de 6 meses en el desarrollo de cualquier inteligencia artificial. Encontramos en particular a Elon Musk o Steve Wozniak, cofundador de Apple. Pero Eliezer explica que 6 meses no son suficientes para prepararse para los peligros. Es una parada completa lo que él pide.

Una de las soluciones si queremos seguir usando potentes IA será no conectarlas a Internet. Siguen siendo cautelosos, porque la masa de información accesible en la web es colosal. Incluso podemos imaginar que una IA pueda acceder a archivos confidenciales para alimentar su algoritmo.

Uno de los aspectos importantes es también dar un límite de potencia a la IA. En lugar de utilizar grandes grupos de servidores cada vez más potentes para entrenar IA, limítelos. Incluso va tan lejos como para agregar «prepárate para destruir un centro de datos deshonesto con un ataque aéreo».

Para él, la IA no tiene nacionalidad, no distinguirá entre estadounidense, china, rusa o francesa. Así, si un país se encuentra en un punto de no retorno, pide que todo el mundo lo ataque.

Al leer la columna, Eliezer Yudkowsky es extremadamente alarmista. Incluso hasta el punto de preguntarse si no es demasiado. La conclusión es un ejemplo perfecto de esto al terminar con «los niños no eligieron esto y no hicieron nada malo». Solo el futuro nos lo dirá. Pero si tantos expertos están preocupados por esto, probablemente algo esté pasando.

Artículo anteriorAtlas caído retrasado hasta agosto
Artículo siguienteEste ingenioso RPG de acción es como jugar una aventura completa de Diablo en 24 minutos.
Dario Reblon
Me apasiona la fotografía y la tecnología que nos permite hacer todo lo que siempre soñamos. Soñador y luchador. Actualmente residiendo en Madrid.