¿Una IA con emociones sería una amenaza para la raza humana?

Creo que no es suficiente ni necesario.

Considere un programa que sea capaz de sentir emociones, pero incapaz de actuar sobre esas emociones de manera significativa. Eso no es particularmente amenazante.

¿Qué pasa con una IA que no siente emociones, pero se le ha dado una función objetiva que es innatamente malvada, como matar a todos los humanos dentro de un grupo? Eso es amenazador sin emociones.

Luego está el problema de determinar qué significa exactamente para las máquinas tener emociones, que es donde creo que la mayoría de los problemas surgen cuando las personas comienzan a antropomorfizar programas de computadora. Es genial que el aprendizaje automático pueda imitar ciertas características del comportamiento humano, pero eso es todo: imitar. No es pensar como lo haría un humano.

Lo más que podría decir es que las emociones agregan un elemento de aleatoriedad o imprevisibilidad a las características en un proceso de toma de decisiones. Por lo tanto, podría ser más difícil predecir el comportamiento de una máquina con las emociones si su objetivo es optimizar hacia algún estado emocional. Pero ese no es un resultado muy fuerte. Es como decir: introducir aleatoriedad, obtener un comportamiento impredecible.

Esa es una pregunta intrigante, pero nadie tiene una respuesta justificada (solo handwaving :)).

Personalmente, soy muy escéptico sobre la amenaza de cualquier inteligencia artificial (general) para la humanidad. Así como todos los investigadores de AGI que conozco. En particular, Ben Goertzel (conocido investigador de AGI) realizó un análisis exhaustivo de la labor más profesional sobre el tema en forma de libro de Bostrom: Superinteligencia: Miedos, promesas y potenciales. Creo que lo más aterrador que veremos en un AGI es la completa ignorancia hacia nosotros. 😀

Pero eso es incluso sin emociones, ¿cómo las emociones cambian las probabilidades? Creo que la IA emocional es incluso menos propensa a representar una amenaza. Incluso hay una película sobre este caso, “I Robot”: un robot emocional desobedece el sistema central de inteligencia artificial, que lógicamente decidió mantener a todos los seres humanos para que se hicieran daño a ellos mismos y al medio ambiente. 🙂

De hecho, ¿por qué los humanos no se matan entre sí, al menos a escala masiva, al menos más? A pesar de que todavía competimos por recursos escasos a veces muy mal. Eso se debe en gran parte a las emociones: compasión, empatía o incluso miedo al final. Y las leyes, pero ¿por qué respetamos las leyes? Eso de nuevo se reduce a las emociones. Asimismo, el AGI emocional podría sentir empatía hacia nosotros y descartar las acciones violentas para obtener los recursos necesarios como demasiado crueles.

Me vino a la mente que el personaje de Winona Rider en la película Alien 4 era un robot emocional, y otro personaje incluso algo triste como “Deberíamos haber imaginado que eres un robot, eres una persona demasiado buena para ser un humano”. 😀

Y podría ser el caso de que todos los sistemas AGI (inevitablemente) tengan emociones o algo muy similar. En los mamíferos, las emociones tienen un papel de vital importancia en la toma de decisiones y la asignación de atención (“recursos computacionales”). Precisamente los temas que ningún sistema de inteligencia artificial actual puede manejar (bueno).

Además, nuestra generación va a morir bien antes de que se implementen los verdaderos sistemas AGI, por lo que no es nuestro problema. 😀

A los “filósofos” y al “público en general” surgen nuevos inventos tecnológicos: ¡un iPhone! Wow, un iPad! wow, nuevo procesador de Intel, el doble de potente que el predecesor! Esto da la impresión de que AGI simplemente saltará sobre nosotros de la nada sin que nadie lo vea venir. Pero incluso las cosas más simples (como la barra táctil en los nuevos MacBooks) son el resultado de décadas de investigación, experimentación, diseño y desarrollo.

Del mismo modo, para obtener incluso un sistema proto-AGI que funcione con la velocidad del pensamiento humano y tenga capacidades de memoria y cognitivas comparables, necesitamos aproximadamente 10 veces más potencia de cálculo (por cm2) y almacenamiento (RAM) que tenemos hoy en día. Para eso podríamos necesitar dispositivos de computación radicalmente diferentes: ¿chips neuromórficos? cálculos reversibles? grafeno electronico? ¿Quién sabe? No estoy seguro de las computadoras cuánticas, por ahora los prototipos de trabajo no son más rápidos que las computadoras convencionales. Eso es, probablemente, 2 a 4 décadas de I + D a partir de ahora.

Y todavía no tenemos tecnología de software adecuada para AGI. La cosa más prometedora que conozco es OpenNARS, pero incluso los autores lo “anuncian” como un marco proto-AGI, nadie está seguro de que el enfoque se ampliará a un AGI completo. Y la mayoría de las “investigaciones de IA” actuales se centran en el Aprendizaje Automático (Deep Learning) y campos estrechamente relacionados, pero eso definitivamente no resultará en que AGI, ML y DL sean importantes y útiles, es muy probable que formen parte de los sistemas AGI futuros. Pero solo no son suficientes. Entonces, la investigación sobre arquitecturas AGI plausibles se está quedando atrás, quizás estemos 50 años hasta las primeras implementaciones de AGI.

Así que, para mí, toda esta retórica hipotética de mano sobre cómo la IA podría representar una gran amenaza no tiene ningún fundamento.

Creo que el enfoque de Marvin Minsky en relación con las emociones proporciona una pista valiosa en este contexto.

De acuerdo con la concepción de la cognición de Marvin Minsky, la diferencia entre los sentimientos por un lado y el conocimiento, así como el pensamiento por el otro, es de naturaleza cuantitativa más que cualitativa. Esto significa, en términos concretos, que los procesos emocionales comparten el mismo espectro de procesos de pensamiento y, por lo tanto, ambos aspectos de la conciencia humana y la cognición están conectados entre sí.

Los estados emocionales están típicamente ligados al procesamiento de baja información. Básicamente, esto apunta a la calidad y cantidad de entradas informativas presentes en una circunstancia determinada. Si no hay mucho por recorrer en términos de información, el cerebro necesita, de todos modos, llegar a una conclusión y lo hace a través de las emociones. Si hay suficiente información disponible, pero de alguna manera las condiciones que prevalecen en una determinada situación no permiten el tiempo para analizarla y procesarla meticulosamente, las emociones vuelven a aparecer como los principales mecanismos de procesamiento de datos para llegar a una conclusión potencialmente vital. tan rápido como sea posible.

Esto se ilustra mejor con el enfoque probalístico adoptado en el trabajo seminal Teoría de la probabilidad: la lógica de la ciencia, donde el autor argumenta, que a través de la representación probabilística de los grados de certeza y exhaustividad de la información, se pueden diseñar sistemas de inferencia flexibles, que imitan lo más cerca posible de los supuestos y supuestos mecanismos algorítmicos que tienen lugar dentro de los cerebros humanos.

Teniendo en cuenta que, debido a una base material más robusta, suponiendo que el silicio sería la elección primaria, una implementación de AI de los algoritmos utilizados en el cerebro humano se traduciría en una mejora de la capacidad mental humana de hasta un millón de veces. a causa de velocidades de señal más rápidas y una arquitectura más robusta, es seguro decir que una versión de AI de la mente humana sería muy superior a su original biológico.

No, una IA emocional basada en la comprensión de Marvin Minsky sería mucho menos irracional y volátil, porque debido a una velocidad de procesamiento más rápida, sus emociones serían virtualmente en todo momento muy cercanas a sus estados de conocimiento y pensamiento.