“La aparición de la inteligencia artificial (IA) se ha posicionado de manera acelerada y activa en un sinfín de actividades y su uso, por lo mismo, se ha masificado en el tiempo tiende a ser entendido con el modismo…llegó para quedarse. En este sentido, la inacción y comodidad de su aplicación ha determinado que gran parte de los usuarios no cuestione su aplicación y el no hacerlo, acerca de las implicancias en la sociedad de la utilización de este ingenio informático que, con el paso de los últimos cinco años, ha adquirido un relativa pero cierta independencia respecto de la dominancia humana, creando por esa circunstancia un movimiento de rechazo que ha sido liderado a nivel mundial por diversos científicos, profesionales de la ética, filosofía y empresarios entre otros.
A causa de lo indicado, en el mes de mayo pasado se publicó una carta abierta firmada por 350 personeros que trabajan desarrollando IA, destacando entre los suscriptores altos ejecutivos de tres de las principales empresas de inteligencia artificial, tal cual son: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic. Fueron precisamente estos empresarios, que según el columnista de tecnología Kevin Roose (2023) “se reunieron con el presidente y la vicepresidenta de Estados Unidos, Joe Biden y Kamala Harris, para hablar de la regulación de la inteligencia artificial”. Y luego de esta cita, Sam Altman declaró ante el Senado de ese mismo país, “que los riesgos de los sistemas avanzados de inteligencia artificial eran lo bastante serios como para justificar la intervención del gobierno y pidió que fuese regulada por sus daños potenciales”.
En paralelo, más de 1000 profesionales del área de la IA emitieron previamente (marzo de 2023) otra señal de alarma que se expresó en un documento coordinado por el Future of Life Institute (organismo sin fines de lucro que se encuentra asentado en Cambridge, Massachusetts) declarando estos científicos que “pedían una pausa de seis meses en el desarrollo de los mayores modelos de IA, citando la preocupación por una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más potentes”.
De estas y otras posiciones que llaman a la reflexión y ponen en pausa el progreso del IA, ha surgido en mayo de 2023 la necesidad en palabras de algunos programadores entre los que se destaca la figura del estadounidense Sam Altman, quien planteó la necesidad a la brevedad de concebir y planificar “varias formas de gestionar de manera responsable los potentes sistemas de inteligencia artificial. Pidieron cooperación entre los principales fabricantes de IA, más investigación técnica sobre los modelos grandes de lenguaje y la formación de una organización internacional de seguridad de la inteligencia artificial, similar al Organismo Internacional de la Energía Atómica, que trata de controlar el uso de armas nucleares”.
Llamado de advertencia que se fundamenta en cuanto a “que millones de personas han recurrido a los chatbots como entretenimiento, compañía y aumento de la productividad y a medida que la tecnología subyacente mejora a un ritmo vertiginoso”.
Si bien esta herramienta, que para muchos se ha convertido en su esencia vivencial, no puede negarse como un método que ha generado interesantes resultados. La elaboración de investigaciones solo basadas en uso de la IA que, a la vez, conjuga en sus resultados el uso de información de libre acceso, que según el chatbot (Programa informático basado en la inteligencia artificial que es capaz de mantener una conversación con un internauta, sobre un tema específico) manejado por el usuario puede visualizar bases de datos hasta el presente, creando de esta manera un serio problema ético acerca de la autoría de la información y, en este contexto, los integrantes de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO, (193 países) en 2021, adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, que en sí es el primer instrumento normativo mundial sobre el tema. No solo protegerá, sino que también promoverá los derechos humanos y desde ya cerca de 30 países ya han comenzado a utilizar esta Recomendación para establecer una legislación nacional que garantice que la inteligencia artificial respete las libertades fundamentales y los derechos humanos y beneficie a toda la humanidad.
No contento con esta posición, la UNESCO declaró (2021) que “organizará anualmente un Foro Mundial sobre la Ética de la IA como plataforma para el aprendizaje estructurado y el intercambio de las mejores prácticas mundiales entre las partes interesadas en la IA de todo el mundo y la vez este mismo organismo… también elaborará un conjunto de herramientas sobre la IA para operadores judiciales”.
En síntesis, el uso extremo de la IA por parte de una generación de alfabetizados digitales que creen que este ingenio es la solución de casi todas las cosas, ha provocado de esta manera un universo virtual, en que las visiones idealizadas por la informática dan imágenes casi perfectas que no representan necesariamente el acontecer de la realidad concreta y, por lo mismo, se crea una peligrosa enajenación que bien puede resumirse cuando en la película Matrix (1999) en una parte del diálogo entre Neo y Morfeo, este último le dice al nov “el uso de la inteligencia artificial te presenta un mundo que las máquinas quieren que tu veas, pero en la realidad no es tal. Matrix es una mentira, un engaño a los sentidos; no es real, pero lo percibimos como real”, mostrándole para esos efectos y de manera de despercudir al ingenuo Neo, una foto del estado ruinoso del planeta, situación que se podría resumir al decir que no todo lo que brilla es oro“.
***Gastón Gaete Coddou, geógrafo y académico de la Facultad de Ciencias Naturales y Exactas, Universidad de Playa Ancha.
Columna de opinión publicada en diario El Trabajo de San Felipe, el miércoles 5 de julio de 2023.