Esa es una pregunta intrigante, pero nadie tiene una respuesta justificada (solo handwaving :)).
Personalmente, soy muy escéptico sobre la amenaza de cualquier inteligencia artificial (general) para la humanidad. Así como todos los investigadores de AGI que conozco. En particular, Ben Goertzel (conocido investigador de AGI) realizó un análisis exhaustivo de la labor más profesional sobre el tema en forma de libro de Bostrom: Superinteligencia: Miedos, promesas y potenciales. Creo que lo más aterrador que veremos en un AGI es la completa ignorancia hacia nosotros. 😀
Pero eso es incluso sin emociones, ¿cómo las emociones cambian las probabilidades? Creo que la IA emocional es incluso menos propensa a representar una amenaza. Incluso hay una película sobre este caso, “I Robot”: un robot emocional desobedece el sistema central de inteligencia artificial, que lógicamente decidió mantener a todos los seres humanos para que se hicieran daño a ellos mismos y al medio ambiente. 🙂
De hecho, ¿por qué los humanos no se matan entre sí, al menos a escala masiva, al menos más? A pesar de que todavía competimos por recursos escasos a veces muy mal. Eso se debe en gran parte a las emociones: compasión, empatía o incluso miedo al final. Y las leyes, pero ¿por qué respetamos las leyes? Eso de nuevo se reduce a las emociones. Asimismo, el AGI emocional podría sentir empatía hacia nosotros y descartar las acciones violentas para obtener los recursos necesarios como demasiado crueles.
Me vino a la mente que el personaje de Winona Rider en la película Alien 4 era un robot emocional, y otro personaje incluso algo triste como “Deberíamos haber imaginado que eres un robot, eres una persona demasiado buena para ser un humano”. 😀
Y podría ser el caso de que todos los sistemas AGI (inevitablemente) tengan emociones o algo muy similar. En los mamíferos, las emociones tienen un papel de vital importancia en la toma de decisiones y la asignación de atención (“recursos computacionales”). Precisamente los temas que ningún sistema de inteligencia artificial actual puede manejar (bueno).
Además, nuestra generación va a morir bien antes de que se implementen los verdaderos sistemas AGI, por lo que no es nuestro problema. 😀
A los “filósofos” y al “público en general” surgen nuevos inventos tecnológicos: ¡un iPhone! Wow, un iPad! wow, nuevo procesador de Intel, el doble de potente que el predecesor! Esto da la impresión de que AGI simplemente saltará sobre nosotros de la nada sin que nadie lo vea venir. Pero incluso las cosas más simples (como la barra táctil en los nuevos MacBooks) son el resultado de décadas de investigación, experimentación, diseño y desarrollo.
Del mismo modo, para obtener incluso un sistema proto-AGI que funcione con la velocidad del pensamiento humano y tenga capacidades de memoria y cognitivas comparables, necesitamos aproximadamente 10 veces más potencia de cálculo (por cm2) y almacenamiento (RAM) que tenemos hoy en día. Para eso podríamos necesitar dispositivos de computación radicalmente diferentes: ¿chips neuromórficos? cálculos reversibles? grafeno electronico? ¿Quién sabe? No estoy seguro de las computadoras cuánticas, por ahora los prototipos de trabajo no son más rápidos que las computadoras convencionales. Eso es, probablemente, 2 a 4 décadas de I + D a partir de ahora.
Y todavía no tenemos tecnología de software adecuada para AGI. La cosa más prometedora que conozco es OpenNARS, pero incluso los autores lo “anuncian” como un marco proto-AGI, nadie está seguro de que el enfoque se ampliará a un AGI completo. Y la mayoría de las “investigaciones de IA” actuales se centran en el Aprendizaje Automático (Deep Learning) y campos estrechamente relacionados, pero eso definitivamente no resultará en que AGI, ML y DL sean importantes y útiles, es muy probable que formen parte de los sistemas AGI futuros. Pero solo no son suficientes. Entonces, la investigación sobre arquitecturas AGI plausibles se está quedando atrás, quizás estemos 50 años hasta las primeras implementaciones de AGI.
Así que, para mí, toda esta retórica hipotética de mano sobre cómo la IA podría representar una gran amenaza no tiene ningún fundamento.