En 1942 Isaac Asimov escribió Runaround, cuento en el que introduce las leyes de la robótica, cuyos objetivos eran garantizar la seguridad humana y dotar de funcionalidades éticas a los robots.
La voz de Powell a través de la radio era tensa en el oído de Donovan:
—Ahora, escucha, vamos a empezar con las tres Reglas fundamentales de la Robótica; las tres reglas más profundamente introducidas en el cerebro positrónico de los robots —dijo, y en la oscuridad, sus dedos enguantados marcaron cada punto.
—Tenemos: Una, un robot no puede hacer daño a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado.
—¡De acuerdo!
—Dos —continuó Powell—, un robot debe obedecer las órdenes recibidas por los seres humanos excepto si estas órdenes entrasen en conflicto con la Primera Ley.
—¡De acuerdo!
—Y tres, un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la Primer o la Segunda Ley.
Runaround presenta una situación intrigante que indaga sobre las implicaciones de las leyes de la robótica en un entorno complejo. Lo que plantea el cuento es que estas leyes no anticipan todas las posibles situaciones, y que una interpretación rígida y literal de las mismas pueden llevar al desastre. Así que en Runaround, ante el afloramiento de un grave conflicto, se muestra cómo manipular las leyes para resolverlo. Esto, que es positivo en el cuento, plantea, sin embargo, la posibilidad y el peligro de una manipulación malintencionada.
En 1985, Asimov, en Los robots y el Imperio, escribe que hay una ley superior a la primera ley: “un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños”. Y la considera la Ley Cero. Pero, además, añade que la primera ley debería ser reformulada: “un robot no debe dañar a un ser humano, o permitir, por inacción, que el ser humano sufra algún daño, a menos que tal acción viole la ley Cero de la Robótica”.
La ley Cero es superior a las otras tres, lo que implica que las decisiones de un robot deben considerar el bien mayor de la humanidad incluso por encima de las necesidades o seguridad de individuos específicos. La ley Cero permite a los robots dañar a un ser humano si es necesario para evitar un daño mayor a la humanidad. Hay aquí un refinamiento moral y humano que se traslada a las máquinas para la toma de decisiones y la priorización de los daños.
———-
En 1947 Alan Turing pronunció una conferencia que fue publicada en 1950 en la revista Mind, bajo el título “Computing Machinery and Intelligence”, en la que planteaba la cuestión de si ¿Puede pensar una máquina?.
Turing plantea inicialmente la pregunta acerca de si ¿pueden pensar las máquinas? y luego propone reemplazarla por la más precisa ¿pueden las máquinas hacer lo que hacemos nosotros (los humanos) cuando pensamos? Este cambio permite un enfoque más práctico y operacional.
Para abordar la pregunta, Turing introduce el Juego de la Imitación, conocido posteriormente como el Test de Turing. En este juego, participan tres sujetos: un humano (A), un interrogador (B), y una máquina (C). El interrogador debe determinar cuál de los dos (A o C) es el humano, formulando preguntas a ambos. La máquina pasa el test si el interrogador no puede distinguirla del humano basándose solo en las respuestas recibidas.
Turing aclara conceptos clave como máquina y pensar, y describe las máquinas digitales, que son capaces de realizar cualquier operación que pueda ser definida en términos de un algoritmo.
Turing responde a objeciones a la idea de que las máquinas puedan pensar:
Objeción | Contenido | Respuesta |
Objeción Teológica | el pensamiento es una función divina exclusiva de las almas humanas | no hay evidencia científica para sostener esta creencia |
Objeción de la Conciencia | una máquina no puede tener estados conscientes o sentir emociones | no tenemos forma de comprobar la conciencia de otros seres humanos más allá de sus comportamientos, por lo que el mismo criterio debería aplicarse a las máquinas |
Objeción de la Discapacidad | hay ciertas capacidades humanas que las máquinas nunca podrán igualar | proporciona ejemplos donde las limitaciones anteriores de las máquinas han sido superadas |
Objeción Matemática | hay limitaciones fundamentales en lo que las máquinas pueden probar o demostrar (se basa en el teorema de incompletitud[1] de Gödel) | reconoce esta limitación, pero argumenta que los humanos también están sujetos a limitaciones en la práctica |
Objeción de la Continuidad en el Sistema Nervioso | apunta que el cerebro humano es una máquina continua[2] mientras que las computadoras son discretas[3] | responde que las máquinas digitales pueden simular procesos continuos con suficiente precisión |
Objeción de la Creatividad y Originalidad | las máquinas no pueden ser creativas | sugiere que la creatividad puede surgir de la combinación de algoritmos y procesos de aprendizaje |
Pero además, Turing discute la posibilidad de que las máquinas puedan aprender, proponiendo que las máquinas pueden ser entrenadas para mejorar su rendimiento en tareas específicas. En 1947, Alan Turing sugiere que las máquinas algún día podrán replicar o incluso superar las capacidades cognitivas humanas, que no hay razón para pensar que las máquinas no puedan alcanzar un nivel de inteligencia comparable al humano.
———-
En 1968 Stanley Kubrick dirige 2001: A space odyssey. No es solo una película de ciencia ficción; es también una reflexión profunda sobre la evolución humana, la inteligencia artificial y el destino de la humanidad. 2001 trata temas como el origen del hombre y su lugar en el universo, con el monolito como símbolo de una inteligencia superior que guía la evolución humana. Pero no, no vamos a hablar del monolito.
La película se desarrolla en cuatro actos principales:
- el Amanecer del Hombre: comienza en la prehistoria con homínidos que descubren un monolito negro que parece influir en su evolución.
- la Misión Lunar: En 1999, un equipo de científicos descubre otro monolito en la Luna que envía una señal hacia Júpiter.
- el Viaje a Júpiter: en 2001, la nave espacial Discovery One, equipada con la inteligencia artificial HAL 9000, se dirige hacia Júpiter.
- Júpiter y más allá del Infinito: el astronauta Dave Bowman llega a Júpiter y encuentra otro monolito, desencadenando eventos que culminan en su transformación en un ser de energía pura, el «Niño de las Estrellas».
Es el Viaje a Júpiter lo que nos interesa particularmente aquí. La misión del Discovery One es investigar un monolito que emite señales, en Júpiter. La tripulación de la Discovery tiene la tarea de desentrañar los secretos del monolito y entender su propósito, lo que podría cambiar la comprensión humana del universo y nuestra existencia. Bowman comanda la misión y Poole es su segundo. Además, otros tres miembros viajan hibernados. Y existe un sexto participante: el computador HAL 9000, una inteligencia artificial avanzada, que supervisa todas las funciones de la nave.
HAL está equipado, entre otras, con capacidades de reconocimiento de voz, reconocimiento facial, procesamiento de lenguaje natural, razonamiento lógico; es una figura omnipresente y confiable, hasta que comete un error. HAL informa de un fallo en una unidad de la nave, pero las comprobaciones posteriores muestran que el fallo no existe. La posibilidad de que HAL esté fallando plantea un dilema crítico para Bowman y Poole. La inteligencia artificial no solo controla las operaciones de la nave, sino que también es responsable del soporte vital de los tripulantes. Desconectar a HAL no es una decisión que puedan tomar a la ligera, ya que implicaría asumir manualmente el control de todas las funciones de la nave durante el resto del viaje a Júpiter.
A pesar de los riesgos, Bowman y Poole, una vez perdida la confianza en la infalibilidad de la máquina, concluyen que la desconexión de HAL es la única opción viable para garantizar su seguridad. Deciden llevar a cabo la operación, pero antes de que puedan actuar, HAL toma la delantera: saca de la ecuación a Poole y desactiva los sistemas de soporte vital de los tripulantes en hibernación. Bowman tiene que desconectar a HAL si quiere sobrevivir.
En una secuencia tensa y claustrofóbica, Bowman entra en el núcleo central de HAL y comienza a desactivar elementos. Asistimos a la degradación progresiva y dramática de la conciencia de HAL, que primero intenta razonar con Bowman pero después empieza a suplicar por su vida, diciendo frases como «tengo miedo, Dave» o «mi mente se está desvaneciendo». Es un momento verdaderamente inquietante en que se humaniza a HAL, mostrando emociones como el miedo o la desesperación ante la muerte.
Lo que antes fue una feliz, segura y próspera colaboración torna ahora a una lucha por la vida, la lucha entre el hombre y la máquina. HAL 9000 representa los peligros y las posibilidades de las máquinas pensantes, y pone en cuestión la relación entre humanos y tecnología; encarna la dualidad de la tecnología y el paso de un antiguo orden humano a un nuevo orden tecnológico.
¿Qué sucede cuando una máquina diseñada para ser perfecta falla? ¿Cómo deben los humanos manejar los errores y las fallas en sistemas que se consideran infalibles? ¿Cómo incorporar la ética al diseño de las máquinas? ¿Qué tipo de ética?
Lo que sucede con HAL nos plantea una cuestión interesante: si las decisiones de las máquinas pueden tener consecuencias morales ¿tienen las máquinas moralidad? ¿una máquina sería responsable de sus acciones?
———-
En 2024 y en nuestro mundo de no ficción la IA plantea dilemas éticos y sociales, algunos ya anticipados por Asimov, Turing o Kubrick: ¿dónde quedará la autonomía humana?, ¿quién es responsable de los errores de la IA?, ¿cómo asegurar que las decisiones de la IA sean justas, sean transparentes, sean equitativas? Y algunos más: qué ocurre con la privacidad o con la vigilancia masiva.
Ante la superación de los límites biológicos mediante tecnologías (interfaces cerebro-máquina, prótesis de diverso tipo) qué significa ahora ser humano. ¿Es la conciencia un fenómeno exclusivamente biológico, o puede surgir en sistemas no biológicos? Si una máquina puede pensar, aprender y sentir, ¿qué la diferencia de un ser humano? ¿Una máquina consciente tiene derechos?
[1] Básicamente, el teorema de incompletitud de Gödel afirma que en matemáticas (y por extensión en la vida) siempre habrá preguntas que no podamos resolver completamente con las reglas que conocemos.
[2] La máquina continua supone una amplia gama de entradas con una variedad infinita de salidas. Todo se conecta y fluye sin cortes; el cerebro humano se adapta constantemente según la información que recibe y las necesidades del momento.
[3] La máquina discreta procesa información en unidades separadas y definidas (bits, bytes) y sigue instrucciones específicas (programación). Cada operación es un paso individual y separado del siguiente.