Ética para robots

A principios de los años 40, Asimov, en su serie sobre los robots, formuló las que se han conocido como “tres leyes de la robótica”. Era los principios que se programaban en los robots para que estos las cumplieran sin mayor discernimiento. Algo mecánico que, como el autor hacía ver, generaba numerosos problemas cuando entraban en contradicción entre sí o con el contexto y el robot “enloquecía”. Los principios éticos para aquellos robots eran estos, claros y diáfanos:
  1. Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Discusiones al margen, Asimov planteaba, en sus aporías, problemas que después se han tenido que plantear en la realidad como muestran discusiones sobre el uso de robots en el campo militar, la medicina o las relaciones personales, dando paso a planteamientos de algo que se puede llamar “roboética“.

Pero hay más. Resulta que estos principios y sus imitadores parten de un supuesto problemático: que la ética, necesariamente, tiene que derivar de supuestos filosóficos universales. Y ahí está el problema. Primero, porque es dudoso que existe eso que llaman “ley natural” que, algunas veces, no es más que la ética de la religión dominante despojada de cualquier ornamento religioso o, tal vez, una imaginación por parte del creador sobre cómo es su creatura. Y, segundo, porque el mundo se ha hecho suficientemente complejo como para que no se levanten voces sobre esa curiosa identificación entre “supuestos filosóficos universales” y “supuestos filosóficos ‘occidentales'” (es decir, eurocéntricos). De hecho, se puede hablar de civilizaciones, pero cuando se habla de “la civilización” es porque se está hablando de la “civilización occidental” (es decir, eurocéntrica). 

Y hasta ahí ha llegado el asunto: a que haya proyectos sobre una “roboética” que no se base únicamente en supuestos eurocéntricos, sino que recoja los planteamientos de otras éticas (confuciana, taoísta, hinduísta y otras tradiciones no-occidentales). No sé si se podrá conseguir algo, pero los pasos se están dando para ver cómo programar sistemas inteligentes y autónomos no-humanos, es decir, robots. Pero me temo que la ética no puede programarse (Asimov lo entendió bien) y que, al final, “la ética dominante será la ética del sistema dominante” y si este sistema es el capitalismo, ya se sabe qué puede dar de sí dicho sistema.