Años atrás, mientras estudiaba en la Universidad de Stanford, un grupo de académicos aseguró que, eventualmente, los abogados seríamos sustituidos por programas de inteligencia artificial. Aquella afirmación tan categórica me dejó perplejo. ¿De verdad? ¿Sería posible reemplazar a mis colegas con un software? ¿A dónde irían a parar todos aquellos saberes que no detectan los algoritmos? ¿El trato humano? ¿La empatía? ¿La capacidad de adecuarse a lo imprevisible? y muchos otros cuestionamientos.
Sin duda, uno de los mayores temores que nos provoca la inteligencia artificial (IA) es el de ser relevados por ella en nuestros quehaceres cotidianos. Nos preocupa que, en un futuro no tan lejano, las máquinas y los algoritmos realicen las tareas que antes desempeñaban los humanos. Hay también temores dignos de la ciencia ficción, como el hecho de que los dispositivos tomen el control de nuestras sociedades. Aunque este último, en diversas proporciones y de diversas maneras, acontece ya en nuestras sociedades obsesionadas por el control, la vigilancia masiva, la recolección de datos, la clasificación con fines de exclusión, la estimulación del consumo, la domesticación del deseo y la adoración de los reflectores. Vivimos, bajo el amparo de la tecnología, en sociedades de autoritarismos blandos a los que solo se puede responder con decisiones libres, un rasgo del que carecen los procesadores actuales.
Hoy existen autos que se manejan solos, robots capacitados para recolectar manzanas, chatbots que brindan asesoría financiera, sistemas que monitorizan el ganado y la producción agrícola y servicios de paquetería realizados por drones. Esta avalancha de tecnologías emergentes supone un desafío y una oportunidad para quienes estamos dedicados a la educación y a la formación de las y los jóvenes. Por ello, hace unos días, celebramos en la Ibero el Foro Académico Internacional Construyendo el Futuro de la Inteligencia Artificial, al que acudieron especialistas que trabajan con IA en ámbitos como la ingeniería, la economía, la arquitectura, el derecho y la educación.
Una inquietud central de este foro giró en torno al futuro de la educación universitaria. Al respecto, el Dr. Wayne Homes (investigador de la University College London), aseguró que —entre otras cosas— en un futuro inmediato veremos el surgimiento de simuladores de aprendizaje para realidad virtual y realidad aumentada y un auge de los chatbots como tutores personalizados. También mencionó el riesgo de automatizar las prácticas de enseñanza y explicó cómo las IA podrán contribuir a la planeación y a la seguridad de los ambientes escolares. Sería deseable, más que temer, esperar modelos de sinergia y colaboración con las IA.
Sin embargo, el corazón de su charla se centró en la pregunta sobre el uso ético de estas tecnologías y en cómo las escuelas y la sociedad en general tendrán que adaptarse a “flujos híbridos de trabajo”, en los que los humanos desarrollen habilidades para colaborar con las IA de manera ética y responsable. Sobre la sustitución del docente por las IA, Holmes fue rotundo: “Ningún sistema será capaz de suplir al docente”. Uno de los problemas de estos sistemas, de ChatGPT por ejemplo, es que parece humano, pero no lo es; parece preciso, pero no lo es tanto; y parece que comprende, pero está lejos de hacerlo. Por ello, al docente le toca acompañar a sus estudiantes en un proceso continuo de discernimiento y concientización.
Si bien las IA son y seguirán siendo herramientas potentes en la investigación y la docencia; también es cierto que entrañan riesgos que no deben pasar inadvertidos. Por un lado, están los riesgos concernientes a derechos humanos (como la privacidad de datos, la hipervigilancia, los sesgos cognitivos, la salud mental y la dependencia tecnológica); por otro lado, el aumento de las brechas socioeconómicas y la pérdida de la presencialidad y el contacto humano; así como el alto costo ambiental que representan las tecnologías emergentes: el gasto de agua requerido para refrigerar los data centers, la generación de electricidad, la extracción de minerales para fabricación de dispositivos, los residuos electrónicos, etc.
Los costos ambientales nos llevan, por otra parte, a una reflexión sobre la fetichización de la que es objeto la IA: pareciera que los datos y su procesamiento, así como la generación de nuevas cadenas de información aconteciesen en el vacío, como si los bytes tuviesen una existencia independiente de la materia vinculada tanto a la energía como a la generación de datos. La IA se presenta como una entidad ajena a toda circunstancia, por lo tanto absoluta y poderosa. Pero las cosas no son así: bastaría con interrumpir el suministro de materiales, una posibilidad que podría ser inminente si no tomamos las decisiones adecuadas.
El filósofo Lewis Mumford escribió que “una de las funciones de la inteligencia es para tener en cuenta los peligros que vienen de confiar únicamente en la inteligencia”. Pero también, como apuntó el monje Paolo Benanti, estos mismos riesgos representan una oportunidad histórica para apostar por la empatía, la imaginación y la creación de soluciones a problemas urgentes como la crisis medioambiental, la desigualdad y el aislamiento social. Así que, cuando sobrevenga el temor a ser sustituidos por las máquinas y los algoritmos, conviene volver a aquello que nos distingue como especie: la colaboración, la intuición, el disfrute, la capacidad de adaptación y la conciencia; puesto que son estos rasgos cardinales los que orientarán la relación entre los seres humanos y la tecnología; y son, además, no tengo ninguna duda, los pilares sobre los cuales podremos construir el futuro.
Rector de la Universidad Iberoamericana