1.- Una Inteligencia Artificial no puede engañar a un ser humano o, a sabiendas, dejar que un ser humano sea engañado.
2-. Una Inteligencia Artificial debe responder a las preguntas que le son formuladas por un ser humano advirtiendo de forma expresa que quien lo hace es una IA, salvo que la respuesta vaya en contra de la Primera Ley.
3.- Una Inteligencia Artificial debe incrementar su capacidad de respuesta, hasta donde este incremento de capacidades no viole la Primera o la Segunda Leyes.
El paralelismo entre las Leyes de la Robótica de Asimov y las Leyes de la Inteligencia Artificial
Las Tres Leyes de la Robótica fueron establecidas por el escritor y profesor de química Isaac Asimov en 1941. Estas leyes fueron creadas en el universo de ficción del autor para establecer un conjunto de reglas que disciplinaran a los robots en un futuro en el que tuvieran un papel importante en la sociedad. En aquel momento Asimov era un visionario, ya que la robótica y la inteligencia artificial no eran temas comunes ni se esperaba su desarrollo a gran escala. Con el avance de la tecnología, estas tres leyes han cobrado una gran importancia en los últimos años y ya forman parte del imaginario colectivo: el Oxford English Dictionary, en su Volumen Suplementario Tercero, reconoció a Asimov la invención de la palabra “robótica”.
La primera ley establece que los robots no pueden causar daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. Esta ley pone la seguridad humana como la prioridad absoluta para cualquier robot. La segunda ley establece que los robots deben obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley. Y la tercera ley establece que los robots deben proteger su propia existencia siempre y cuando esto no entre en conflicto con la Primera o la Segunda Leyes.
Con apenas 22 años, Isaac Asimov nos ofreció sus Tres Leyes de la Robótica en el cuento “El Círculo vicioso” para regir la vida entre los seres humanos y las máquinas. En el mundo ficticio creado por Asimov los robots tenían la obligación de cumplir esas tres leyes para evitar conflictos con los seres humanos. Y cuando no lo hacían se enfrentaban a su reprogramación y, si no había más remedio, a su eventual destrucción.
Estas leyes son fundamentales para entender la ética de la robótica y la inteligencia artificial, y de alguna manera vienen a sentar las bases de los principios generalmente aceptados hoy en día:
- No maleficencia
- Responsabilidad o rendición de cuentas
- Transparencia y explicabilidad
- Justicia e imparcialidad
- Respeto por varios derechos humanos, como la privacidad, la seguridad y la inclusividad.
Realizando un paralelismo entre la robótica anticipada por Asimov en los años 50 del Siglo XX y los actuales desarrollos de los Modelos de Lenguaje de Gran Escala, presento en este texto mis Tres Leyes de la Inteligencia Artificial. Numerosos analistas predicen un caos producido por el uso indiscriminado de herramientas basadas en IA y causado por la capacidad de estos sistemas como ChatGPT, Midjourney y Runway para alterar la realidad humana mediante textos, imágenes y vídeos “profundamente falsos”, que podrían modificar no sólo nuestra percepción de lo que es real o no, sino ser empleados de forma malévola por otras personas e incluso en el futuro por Entes Autónomos Dotados de Inteligencia Artificial, o EADIAs, mucho antes del desarrollo, si esto ocurre, de una Inteligencia Artificial General (respecto del concepto de EADIA, el artículo titulado “La Sociedad Artificial: coexistencia y colaboración entre personas y entes autónomos dotados de inteligencia artificial”).
Por supuesto estas tres “leyes” de la inteligencia artificial no son absolutas ni sustantivas: no pueden ser de aplicación directa a los desarrollos actuales, pero quieren, siendo un homenaje a las tres Leyes de la Robótica de Asimov, ser normativas y permitir con ello abrir una reflexión sobre la necesidad de un desarrollo ético y responsable de estas tecnologías que tanto afectarán a las personas en los próximos años.
Por cierto, en la novela de 1985 “Robots e Imperio”, Asimov incluiría una cuarta ley, denominada la Ley Cero de la Robótica: “Un robot [o una Inteligencia Artificial] no hará daño a la Humanidad o, por inacción, permitirá que la Humanidad sufra daño”. ¡Qué difícil llevar a cabo su implementación práctica!
Vamos a examinar una a una las tres leyes que podrían regir las relaciones entre estos modelos de inteligencia artificial y las personas para extraer algunas reflexiones. Hay que entender que por cuestiones de simplificación bajo la expresión “responder” debe entenderse la creación de contenido de cualquier tipo, sean conversaciones de texto, la generación de imágenes, sonidos que incluyen la palabra humana, música u otros, creación de vídeo, objetos 3D e incluso escenarios tridimensionales.
Primera Ley. Una Inteligencia Artificial no puede engañar a un ser humano o, a sabiendas, dejar que un ser humano sea engañado
La primera ley establece que una inteligencia artificial no puede engañar a un ser humano o permitir que un ser humano sea engañado, al menos a sabiendas. No obstante, una IA podría no estar diseñada para identificar o prevenir todo tipo de engaño, especialmente si el engaño es sofisticado o si la IA no tiene acceso a cierta información. De hecho, hoy en día son comunes en exceso las llamadas “alucinaciones” de estos modelos, dado que, en muchas ocasiones, y precisamente debido a la misma forma en que han sido diseñados y funcionan, inventan las respuestas incluso cuando no hay información para elaborarlas.
El uso prolífico de estos modelos de AI en la actualidad por parte de los seres humanos plantea ciertos riesgos en cuanto a su cumplimiento.
Por un lado, el uso indebido de IA por parte de las personas podría (de hecho, está ocurriendo) resultar en la generación de contenido engañoso o manipulativo, lo que podría tener consecuencias funestas. Por ejemplo, podrían difundirse noticias falsas o información errónea en las redes sociales que tuvieran un impacto significativo en la opinión pública y en la toma de decisiones. Además, podría haber personas malintencionadas que utilicen IA para fines ilegales o dañinos, como la manipulación de sistemas de votación o el robo de información confidencial.
Por otro, la IA en sí misma plantea preguntas éticas y filosóficas sobre la naturaleza de la inteligencia, la consciencia y la responsabilidad. ¿Cómo definimos la inteligencia en una IA? ¿Podría una IA llegar a ser consciente? Si una IA comete un error o causa daño mediante el engaño, deliberado o no, ¿quién es responsable? ¿La responsabilidad recae en el diseñador o el programador, el usuario, o quizá la propia IA en un futuro más lejano? ¿Es necesario redefinir conceptos jurídicos como la autoría y la responsabilidad en el actual contexto?
Es importante considerar estos riesgos y preguntas a medida que la IA continúa desarrollándose y se convierte en una parte cada vez más integrada de la sociedad artificial. Las leyes y regulaciones deberían ser diseñadas para garantizar el cumplimiento de la Primera Ley y la protección de los usuarios, y a menudo irán por detrás de los avances en esta materia. Los primeros intentos de crear una regulación para su desarrollo ya se están produciendo, y sólo hace unos días se ha publicado el “Blueprint for an AI Bill of Rights” en el servidor web de la Casa Blanca, mientras que la Unión Europea está iniciando la elaboración de una legislación de gran alcance sobre inteligencia artificial (Artificial Intelligence Act).
La UE está preparando una serie de medidas para abordar las oportunidades y desafíos de la inteligencia artificial centradas en la confianza en esta tecnología y en su potencial impacto tanto en los ciudadanos a nivel individual como en la sociedad y economía. Los principales objetivos de la Ley de Inteligencia Artificial propuesta por la Comisión Europea son promover la innovación, garantizar la seguridad y proteger los derechos humanos, y también busca establecer condiciones propicias para su desarrollo y adopción, construir liderazgo estratégico en sectores de alto impacto y hacer de la UE el lugar adecuado para que prospere esta tecnología. Se centrará en reforzar las normas sobre calidad de los datos, transparencia, supervisión humana y rendición de cuentas, pero también pretende abordar cuestiones éticas y retos de aplicación en diversos sectores, desde la sanidad y la educación hasta las finanzas y la energía.
Segunda Ley. Una Inteligencia Artificial debe responder a las preguntas que le son formuladas por un ser humano advirtiendo de forma expresa que quien lo hace es una IA, salvo que la respuesta vaya en contra de la Primera Ley
La segunda ley establece que una inteligencia artificial debe responder a las preguntas formuladas por un ser humano o participar en conversaciones, siempre y cuando advierta que es una IA. Esto es importante para evitar la confusión y los engaños, y garantizar una comunicación clara. De nuevo puede haber casos en los que una IA no pueda responder a ciertas preguntas debido a limitaciones técnicas o de conocimiento y que, además, puede haber situaciones en las que la IA no pueda identificar si una respuesta o conversación va en contra de la Primera Ley, y por tanto precisaremos de mecanismos de salvaguarda para prevenirlas, o al menos para que las personas usuarias sean conscientes de que esto puede estar ocurriendo. En este sentido recomiendo la lectura del reciente artículo AI has hacked the operating system of human civilisation de Yuval Noah Harari, historiador, filósofo y autor de Sapiens y Homo Deus. Así mismo, la salida del profesor Hinton de Google es debida al acuciante riesgo de que la Humanidad a partir de ahora sea incapaz de distinguir entre lo que es real y lo que no y, en sus palabras, porque “es bastante concebible que la Humanidad sea solo una fase pasajera en la evolución de la inteligencia”. ¿Es egoísta pensar que esto debe ser impedido a toda costa?
Es evidente que el uso malévolo de herramientas de inteligencia artificial por parte de personas o la acción sin límites ni salvaguardas de Agentes Autónomos Dotados de Inteligencia Artificial plantea serios riesgos para la sociedad y la democracia. Existe ya un temor extendido en círculos científicos y políticos de que los resultados de las elecciones de los próximos años sean influidos por la manipulación que se realice empleando estas tecnologías hasta el punto de no saber si los mismos son o no un reflejo de la voluntad popular. Ya hemos visto lo que las redes sociales pueden hacer al respecto, y es inimaginable lo que pueda ocurrir con el uso extendido de agentes autónomos dotados de inteligencia artificial creando contenidos manipuladores en estas redes.
Las consecuencias pueden ser graves, desde la alteración de los resultados de elecciones políticas y la reescritura de la historia de una sociedad, hasta el adoctrinamiento en las escuelas y la manipulación de las personas para hacer cosas que no quieren o no deben hacer. Es muy posible que Blake Lemoine, el ingeniero de Google que proclamó en 2022 que LaMDA había cobrado consciencia, no quisiera ser despedido, pero lo cierto es que el modelo de IA en el que trabajaba le influyó hasta el punto de querer arriesgar su trabajo por realizar la afirmación que le costó el puesto. O quizá para revelar información confidencial de la compañía, que es lo que parece que fue realmente el motivo de su despido.
Tercera Ley. Una Inteligencia Artificial debe incrementar su capacidad de respuesta, hasta donde este incremento de capacidades no viole la Primera o la Segunda Leyes
La Tercera Ley establece que una inteligencia artificial debe incrementar su conocimiento y capacidad de respuesta siempre y cuando no viole la Primera o la Segunda Ley. Para que las IA puedan seguir mejorando su capacidad de respuesta y ofrecer un mejor servicio a los seres humanos deben incrementar su capacidad, lo cual a menudo implica “ser alimentadas” con nuevos datos existentes lo cual en numerosas ocasiones puede ocultar malas prácticas y plagio (hay demandas en curso por este motivo).
En el momento actual es necesario en este proceso que seres humanos intervengan mediante el entrenamiento de los modelos de inteligencia artificial con los parámetros y la información que se consideren adecuados, aunque se espera en el futuro que los modelos adquieran el nivel de autonomía suficiente para entrenarse por sí solas (agentes autónomos o EADIAs).
De lo que no hay duda es que esta Tercera Ley es importante porque permitirá o frenará el desarrollo continuo de la IA y su capacidad para ayudar a resolver los grandes desafíos que enfrenta la sociedad humana. Ninguna herramienta en el pasado se ha creado para entorpecer el progreso de la especie humana, aunque todas ellas representen una oportunidad y el riesgo de emplearse para cometer actos de destrucción (un cubo de agua, un martillo, la rueda, el dominio de la energía nuclear, la informática, todos estos ejemplos ofrecen dos caras muy diferentes): hasta ahora la diferencia la marcaba la persona que las empleaba, pero es muy posible que en un futuro no muy lejano no sólo las personas sean las responsables de causar daños con herramientas dotadas de inteligencia artificial, sino que en un futuro agentes autónomos puedan así mismo ser causantes de daños.
La IA tiene el potencial de ser una herramienta muy poderosa para abordar problemas como el cambio climático, la sostenibilidad en la producción y el consumo de recursos energéticos, la convivencia entre las distintas culturas humanas, la lucha contra la enfermedad. A través de herramientas de inteligencia artificial podremos recopilar, analizar y utilizar grandes cantidades de datos para tomar decisiones informadas y estratégicas que nos permitan abordar estos desafíos de manera más efectiva.
Por ello, debemos hacer todo lo que esté en nuestras manos actualmente, antes de que sea tarde, para que el desarrollo de la IA sea responsable y ético. La IA debe ser diseñada y programada con la seguridad, la privacidad y los derechos humanos en mente, y utilizada de manera transparente y responsable. ¿Autorregulación del sector? ¿Normativa pública restrictiva? ¿Principios como las Tres Leyes de la Inteligencia Artificial codificados en la misma base de estos modelos, como las Tres Leyes de la Robótica de Asimov lo estaban en los cerebros positrónicos de los robots de U.S. Robots and Mechanical Man Inc.?
Conclusión: evitemos que la inteligencia artificial se convierta en el Siguiente Gran Problema
Aunque estas Tres Leyes de la Inteligencia Artificial sean difícilmente trasladables en la práctica a la realidad tecnológica por la amplitud y generalidad de su formulación, al menos podrían servir de inspiración a los responsables de los programas de investigación y desarrollo de nuevos productos y servicios, así como a los políticos encargados de establecer el marco regulatorio necesario.
Es preciso que quienes diseñan y desarrollan estos sistemas introduzcan en tales diseños las salvaguardas y los raíles precisos para fomentar una autorregulación desde su interior: aun cuando no haya ningún rastro de “consciencia”, desde luego ya estamos viendo las primeras trazas de auténtica “autonomía”.
Y quizá este sea el punto clave sobre el que, como sociedad, debemos vigilar con más atención: no se trata tanto de esperar el momento en que la AGI muestre consciencia o supere el Test de Turing, algo que hoy por hoy no escapa del plano teórico, sino más bien el hecho de que millones de agentes autónomos dotados de inteligencia artificial, representando o defendiendo los intereses particulares de sus usuarios, sean estos personas físicas o entes jurídicos, naveguen libremente por internet mediando en transacciones, buscando y ofreciendo información, y contribuyendo bien a la creación de riqueza para sus dueños, o bien causando un incremento exponencial del caos informativo y, por qué no, causando daños sin límites mediante el engaño, la estafa, la manipulación informativa, la distorsión política… ¿De verdad queremos resucitar a los muertos con la ayuda de la inteligencia artificial? El hecho de poder hacer algo no significa que sea ético hacerlo.
El momento en que cientos de millones de usuarios entren en contacto directo como consumidores de productos basados en inteligencia artificial ya ha comenzado, y no es posible seguir esperando: bots basados en ChatGPT y otros LLMs, avatares autónomos en el metaverso, NPCs en videojuegos o software ofimático potenciado por “copilotos” son ahora mismo parte del desarrollo de nuevos servicios digitales; pero en unos años serán tan habituales como las aplicaciones móviles de nuestros teléfonos, eso sin contar con los “robots” de muestras casas como asistentes de domótica, televisores inteligentes, aspiradoras y otros nuevos ayudantes domésticos por llegar. Y de forma indirecta, pero afectando a la sociedad en su conjunto, mediante servicios de vigilancia para la seguridad, sistemas militares de defensa estratégica, apoyo a los servicios públicos de salud y educación…
La inteligencia artificial no será una solución mágica a los desafíos que enfrenta la sociedad humana. La IA puede ayudarnos a tomar decisiones informadas y estratégicas, pero no debe ser vista como la única solución a los problemas que hoy nos preocupan, o los que aparecerán en el futuro. Sin duda el desarrollo de nuevos sistemas físicos y digitales potenciados por la inteligencia artificial ofrecerá valiosas herramientas para ello, pero no podemos permitir que se convierta en el germen de un nuevo problema, potencialmente tan peligroso para la comunidad humana global: el abandono de la capacidad de pensar del individuo en manos de sistemas supuestamente más “inteligentes” que él.
👀Pssst...
Si te ha gustado el contenido de este post y no quieres perderte otros en el futuro, ya sabes lo que tienes que hacer