Como rama de la Filosofía, la Ética es la ciencia que regula los actos humanos no sólo distinguiendo el bien del mal, sino conminándonos a hacer el primero y evitar el segundo. Es decir, una especie de “GPS” o “Google Map” que nos brinda, desde un punto de vista racional, criterios y herramientas para darle sentido a nuestra vida en lo tocante al ‘por qué’ pero, sobre todo, al ‘para qué´ de nuestra frágil existencia (a sabiendas -como decía Benjamín Franklin- que sólo hay dos certezas: la muerte y el pago de los impuestos), así como al comportamiento que debemos observar de cara a nosotros mismos y al prójimo. En este último aspecto, ello cobra especial relevancia al “dotar” de rostro humano a los demás, tratándolos como lo que son: personas humanas, y no como los que están de más ni, mucho menos -valga la redundancia- como los de menos, con actitudes de descarte o de aporofobia (tan criticadas por el Papa Francisco), que tienen como premisa la señalada por Jean-Paul Sartre en su obra “A puerta cerrada”: “el infierno son los demás”.
De ahí que, siendo la inteligencia artificial (“IA”) producto del actuar humano, su generación, aplicación y futuro desarrollo deben estar sujetos, sin lugar a dudas, a criterios éticos. Para tal ponderación, conviene tomar en cuenta algunos aspectos contenidos en los documentos que mencioné al final de mi colaboración previa (07.06.25) para, posteriormente, focalizarlos en la educación.
En la “Lista de principios Asilomar de la IA”, 13 aparecen bajo el rubro “Ética y valores”: seguridad; transparencia en los fallos; transparencia judicial; responsabilidad; alineación de valores; valores humanos; privacidad personal; libertad y privacidad; beneficio compartido; prosperidad compartida; control humano; sin subversión; y, carrera armamentística (tema, este último, tan vigente como agobiante en nuestros días, sobre todo por el creciente empleo de drones). Todo ello, al final, se resume en el principio del bien común, como asunto de largo plazo: “la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización”.
Por su parte, las “Directrices éticas para una IA fiable”, publicadas en 2019 como resultado de los trabajos que la Comisión Europea encargara al “High-Level Expert Group on Artificial Intelligence”, señalan lo siguiente: “Una IA con un enfoque centrado en la persona se esfuerza por asegurar que los valores humanos ocupen un lugar central en el desarrollo, despliegue, utilización y supervisión de los sistemas de IA, garantizando el respeto de los derechos fundamentales, incluidos los recogidos en los Tratados de la Unión Europea y en la Carta de los Derechos Fundamentales de la Unión Europea; todos ellos constituyen una referencia unitaria a un fundamento común arraigado en el respeto de la dignidad humana, en el que el ser humano disfruta de una condición moral única e inalienable. Esto requiere, asimismo, tener en cuenta el entorno natural y el resto de seres vivos que forman parte del ecosistema humano, así como un enfoque sostenible que permita la prosperidad de las generaciones futuras” (apartado 153).
Es así que las ambiciones de progreso científico, o de carácter empresarial o político (inclusive, militar) han de quedar subsumidas y gobernadas por la Ética en todo ámbito, en general, y en el de la IA, en particular.
Maestro en Ciencias Jurídicas