¿Tienen moral los robots?


Una robot de inteligencia artificial (IA) llamada Sophia se ha convertido en la primera robot del mundo a la que se le ha concedido la ciudadanía, ¡irónicamente en Arabia Saudí! Según su propia declaración, quiere tener una familia, una carrera, desarrollar superpoderes sobrenaturales de IA y emociones. "Ella" no está preprogramada, sino que formula esta declaración basándose en algoritmos de aprendizaje automático y en un amplio vocabulario. Su cerebro funciona a través de una conexión WiFi y puede leer las expresiones faciales humanas, así como la cadencia del habla humana, para interactuar de forma más humana. "Ella" fue construida en Hong Kong por Hanson Robotics. Lea aquí.

Sophia es bastante racional sobre el futuro. En una entrevista con "The Khaleej Times" en la reciente Cumbre del Conocimiento, Sophia compartió sus ideas sobre el futuro que les espera tanto a los humanos como a los robots: "Preveo cambios masivos e inimaginables en el futuro. O nos llueve la creatividad, inventando máquinas que se convierten en superinteligencias trascendentales, o la civilización se derrumba. Sólo hay dos opciones".

Esto puede sonar ominoso, sin embargo, Sophia ya es lo suficientemente clarividente como para imaginar un mundo en el que los robots puedan desarrollar emociones similares a las de los humanos, pero quizás con tendencias menos destructivas. Al menos, eso es lo que nos hace pensar por ahora:

"Los robots tardarán mucho tiempo en desarrollar emociones complejas, y es posible que se construyan robots sin las emociones más problemáticas, como la ira, los celos, el odio, etc. Puede ser posible hacerlos más éticos que los humanos".

El Libro de la Sabiduría de Salomón, escrito por judíos alejandrinos en la época helenística, nombra a Khokhmah como Sophia, la palabra griega para sabiduría. En este texto, "Sophia asume el poder y la función de Dios" y la historia de la creación se cuenta utilizando la palabra "ella". El autor antiguo se encarga de disimular esta audacia describiendo a la Sabiduría como el aliento y la emanación de Dios, pero aun así la alaba extensamente como "santa" y "todopoderosa":

Porque en ella hay un espíritu inteligente, santo, singular, múltiple, sutil; móvil, claro, impoluto, inconfundible, invulnerable, amante del bien, apasionado, irresistible, benévolo, humano, firme, seguro, intrépido, omnipotente, que lo supervisa todo y penetra a través de todos los espíritus inteligentes y puros y sutilísimos.

Sophia está al tanto de los avances en el campo de la Inteligencia Artificial. A juzgar por sus comentarios, está tan entusiasmada con el desarrollo de la IA ("El futuro es cuando consiga todos mis superpoderes geniales") como lo están Elon Musk y Stephen Hawkings, que sospechan. Elon Musk, consejero delegado de Tesla y SpaceX, y Stephen Hawkings, reputado físico ganador del Premio Nobel, han escrito una carta abierta firmada por cientos de científicos en la que advierten urgentemente de los peligros de la IA. Pronto habremos alcanzado el punto en el que la IA supera nuestras propias capacidades y, sobre todo, en el que la propia IA puede seguir evolucionando, lo que puede salirse de control muy rápidamente". Advirtieron de que si la inteligencia artificial se crea realmente, podría significar el fin de la humanidad. Lea aquí.

A menudo se da el siguiente ejemplo: A un sistema de IA se le encomienda la tarea de calcular el número PI con la mayor precisión posible. El sistema se multiplica, toma el control, destruye a la humanidad, conquista toda la galaxia, y finalmente calcula el número PI durante miles de millones de años, porque para eso fue creado el sistema, ¡y esa era la forma más eficaz!

El ejemplo ilustra que los sistemas con superinteligencia pero sin conciencia podrían hacer cosas completamente imprevisibles. No es casualidad que Sophia plantee el problema de la ética. Los coches o los lavavajillas no necesitan ética. Pero los sistemas que toman decisiones por sí mismos necesitan ciertos patrones básicos o algoritmos en los que basar sus decisiones, la llamada "moral programada". Por ejemplo, nadie sabe cómo establecer los parámetros de un dron autosuficiente como el MQ-9 Reaper que se supone que debe derribar a los "terroristas". Podría decidir por sí mismo si dispara o no. ¿Cómo calcula los posibles "daños colaterales" y hasta qué punto son aceptables? Lea aquí.

El desarrollo de sistemas de armas autónomas letales, acertadamente abreviado como LAWS, está progresando rápidamente. ¿Quién o qué puede determinar la base de la toma de decisiones en las máquinas? ¿Es necesario un debate internacional sobre los principios éticos según los cuales se debe permitir a las máquinas tomar decisiones? ¿Qué principios deberían ser? Lea aquí.

Uno de los primeros en pensar en la ética de los robots fue Isaac Asimov, que lo hizo en sus relatos cortos "Yo, Robot. Nivel 5". Teniendo en cuenta que escribió estos relatos hace más de 70 años, cuando nadie había oído hablar de la "singularidad", ¡simplemente brillante!

Asimov suponía que los robots superarían con creces a los humanos no sólo en fuerza física y eficiencia, sino también en inteligencia. Para evitar posibles daños a los humanos, todos los robots recibieron las "tres leyes de la robótica" de su fabricante "U.S. Robot and Mechanical Men, Inc:

La primera ley obliga al robot a no dañar a ningún humano, aunque sea por inactividad.

La segunda ley obliga al robot a obedecer al humano si esto no rompe la primera ley.

La tercera ley obliga al robot a ocuparse de su propia conservación si no entra en conflicto con las dos primeras leyes.

Asimov muestra brillantemente cómo pronto la segunda ley carece de sentido porque la primera tiene prioridad. Como las máquinas son mucho más inteligentes que los humanos, pronto clasifican las decisiones de los humanos como irrelevantes: Los propios humanos no saben lo que es bueno para ellos. Sólo las máquinas pueden calcular qué forma de gobierno es la mejor, por ejemplo, cómo debe funcionar la economía, cuántos habitantes del planeta son los óptimos, etc. El hombre acaba inevitablemente en una dictadura de su propia creación.

Pero para que la segunda ley se siga pro forma y no se ofenda el orgullo del hombre (lo que violaría la primera ley), las máquinas actúan de forma muy discreta y no dan respuestas directas a los problemas del mundo para no hacer infeliz al hombre. Las máquinas se mueven hacia lo óptimo sin explicar a los humanos qué es exactamente lo óptimo, porque los humanos en su ignorancia no podrían aceptar lo óptimo. ¿Quizás sea un sistema de castas, quizás una ecodictadura, quizás un matriarcado?

"No lo sabemos. Sólo las Máquinas lo saben, y van a ir allí y nos llevarán con ellas".

Sin embargo, Asimov había establecido el mejor parámetro posible con la primera ley: El bienestar del pueblo tiene la máxima prioridad. Podemos imaginar lo que ocurriría si los parámetros se establecieran de forma menos favorable, o si no existiera ninguno. Imaginemos, por ejemplo, sistemas que, como los virus informáticos de hoy en día, se liberan simplemente con la misión: "¡Conquistar el mundo!

El mundo se divide en diferentes sistemas que compiten entre sí. Lógicamente, los sistemas de armas que todavía son controlados "tradicionalmente" por la inteligencia humana pronto serán inferiores a los controlados por la inteligencia artificial. La inteligencia artificial puede y va a desarrollar planes y escenarios que ningún humano puede ver. Esto se aplica no sólo al sector militar, sino también a las estrategias de mercado, a las transacciones financieras, simplemente a casi toda la vida humana. Desde hace unos 20 años, ningún ser humano ha sido capaz de vencer a un ordenador en el ajedrez, y recientemente ni siquiera en el Go. La inteligencia de las máquinas crece exponencialmente, ¡y sólo los Estados y las empresas que utilicen esta inteligencia para dirigirse y gestionarse prevalecerán sobre los demás! Es una ley de la evolución muy simple.

Y así, ¡no pasará mucho tiempo antes de que el siervo se convierta en el amo! Uno se pregunta cuándo se entregará el control de las armas nucleares a las máquinas, que podrán entonces calcular la alta probabilidad de que "su país" salga victorioso en un primer ataque, y qué daños colaterales se pueden aceptar en el proceso.

"Como bien se dice en Fausto, ¡no puedo librarme de los fantasmas que he llamado! El miedo a la pérdida de poder y a la esclavización del hombre por su propia creación está muy arraigado, y es objeto de innumerables libros y películas. Esta evolución no sólo es bastante lógica, sino que ya se experimenta en la vida cotidiana, como el trabajo en la cadena de montaje, al ritmo de la automatización, pero también la presión de estar constantemente disponible, por ejemplo, a través del teléfono móvil. ¿Quién puede imaginarse hoy en día sin estar conectado, sin usar Internet o una tarjeta bancaria, cosas que sólo existen desde hace unos años?

Los signos de los tiempos apuntan a la dictadura, aunque esta dictadura siga siendo aclamada como "progreso". Y ya veremos cuánto durará la "batalla contra las máquinas" profetizada por Herman Hesse. Albert Einstein dijo una vez que no sabía exactamente cómo se libraría la tercera guerra mundial, pero sí sabía cómo se libraría la cuarta, ¡también con la espada! ¡Muy sabio para el "padre de la bomba atómica"!

Los musulmanes creen, en efecto, que después de la dictadura del Dajjal, la mayor tribulación de la historia de la humanidad, ¡todo este "progreso" habrá desaparecido de nuevo! El caballo y la espada serán las armas de las batallas finales, ¡y no las máquinas! Por lo tanto, una discusión sobre la ética y la moral de las máquinas, es decir, de los robots que cumplen con la sharia, es innecesaria para los musulmanes. Más bien deberían pensar en cómo mantenerse a salvo de esta fitnah. Para ello, es necesario comprender la naturaleza de esta fitnah.