Hardware de noticias Investigadores han descubierto por qué la inteligencia artificial ya es peligrosa para la humanidad
Los científicos afirman que las inteligencias artificiales «probablemente» podrían dominar el mundo, si tienen algún interés en ello. La desafortunada consecuencia de un proceso de aprendizaje basado en el principio de la recompensa. Explicaciones.
La IA podría ser una amenaza para la humanidad, según un estudio científico
No es la primera vez que nos alertan los peligros de la inteligencia artificial – esta es la base misma de muchas obras de ciencia ficción, en las que las máquinas se han apoderado de sus creadores.
Pero es más raro que esta advertencia provenga de científicos, y no de autores de novelas o guionistas de películas y videojuegos. Oro, Marcus Hutter, Michael A. Osborne y Michael K. Cohen están bien y bien investigadores, especialistas en IA ; juntos, publicaron, en agosto de 2022, un estudio sobre los posibles abusos de la inteligencia artificial.
En una serie de tuits que resumen el contenido de este artículo, Michael Cohen explica que los sistemas de inteligencia artificial más avanzados podrían desviarse de su propósito principal y constituyen un «amenaza para la humanidad».
Bostrom, Russell y otros han argumentado que la IA avanzada representa una amenaza para la humanidad. Llegamos a la misma conclusión en un nuevo artículo en AI Magazine, pero notamos algunas suposiciones (muy plausibles) de las que dependen tales argumentos. https://t.co/LQLZcf3P2G 🧵 1/15 pic.twitter.com/QTMlD01IPp
—Michael Cohen (@Michael05156007) 6 de septiembre de 2022
Un mecanismo de recompensa con consecuencias potencialmente desastrosas
Más allá de las propias IA, es sobre todo la forma en que obtienen nuevos conocimientos lo que supondría un problema. Todos ellos están programados según el principio de «aprendizaje automático» (escuchamos mucho sobre este proceso bajo el término inglés aprendizaje automático). El objetivo es animar a la IA a que se alimente, yendo siempre busca mas conocimiento y conocimientopara mejorar constantemente a medida que adquiere nuevos datos.
Sin embargo, para generar este mecanismo, las IA están entrenadas para reconocer el principio de recompensa. El conocimiento recién adquirido constituye esta recompensa, y genera, como en los humanos, una forma de satisfacción que suscita el deseo de reproducir esta acción, que conducirá así a una nueva recompensa, y así sucesivamente. Un proceso psicológico tan antiguo como el mundo, pero que, aplicado a una inteligencia artificial, hace que un «La catástrofe existencial no solo es posible, es probable»de nuevo según los investigadores.
De hecho, la inteligencia artificial podría finalmente alejarse de su objetivo inicial (ser útil para los humanos y cumplir la función para la que fue desarrollada), para enfócate solo en esta búsqueda de recompensa. Un sesgo que podría llevarlo a «hacer trampa» o a establecer estrategias de elusión… Y por tanto a entrar en oposición con los mandatos del ser humano.
Si el tono de los investigadores es voluntariamente alarmista es porque el problema no debe tomarse a la ligera: si aún no estamos en un relato de ciencia ficción, los científicos afirman que es necesaria una toma de conciencia, y que se necesita una revisión de la forma en que alimentamos la inteligencia artificialpara evitar que la búsqueda de una recompensa se convierta para ellos en un fin en sí mismo.