La IA no solo puede manipular el empleo, también incidiría en el aumento de la desigualdad, podría manipular un proceso electoral, incitar a gobernantes a cometer un genocidio. No obstante, puede regularse, controlarse. ¡Estamos a tiempo!
Alberto Acevedo
Expertos en tecnología de las comunicaciones, en ciencias humanas y otras disciplinas sociales, vienen pronunciándose cada vez con más frecuencia sobre el fenómeno de la Inteligencia Artificial, IA. Explican que, si bien la IA tiene un gran potencial para beneficiar a la sociedad, se necesita saber qué puede salir mal. Por eso es importante tener en cuenta su lado oscuro.
Con la aparición del internet, el celular, las plataformas, las redes sociales, la información se tornó potente y nos hizo más poderosos. Una herramienta de propósito general, controlada por nosotros y a nuestro propio servicio, que amplifica nuestra inteligencia y nos da acceso a información que antes no teníamos. Entre pedagogos es corriente mostrar el ejemplo del alumno que llega en la mañana con más información que el profesor porque la noche anterior estuvo conectado a las redes.
Pero, ¿qué pasa cuando el conocimiento se dispara por el poder avasallador de una computadora que nos brinda una información que no es humana, sino artificial? ¿y si perdemos el control de las máquinas que nos lo sustentan? ¿y si nuestras herramientas desarrollan mentes propias, incalculablemente superiores a las nuestras? Tal vez nuestro destino sería el mismo de cualquier pieza de tecnología que se vuelve obsoleta; ¡nos transformaríamos en chatarra!
Hay una euforia generalizada por los avances, casi a diario, de las máquinas que trabajan con IA. No obstante, no hay todavía una definición clara y satisfactoria de lo que es la inteligencia artificial, sus alcances, de la diferencia, por ejemplo, con una programadora informática efectiva y rápida.
Nos están ganando
Los filósofos chilenos Nieves y Miró Fuenzalida, en un artículo de prensa, aportan una definición que resulta interesante: “la inteligencia no significa tener una gran cantidad de conocimientos o la capacidad de hacer matemáticas complejas, sino de percibir el entorno con precisión y tomar acciones que maximicen la probabilidad de lograr objetivos determinados”.
Pero ha sucedido que en los últimos años la revolución informática se ha convertido en una transformación sin precedentes de la inteligencia artificial. La máquina puede ganarnos una partida de ajedrez y derrotarnos en otras disciplinas del conocimiento.
Ahora venimos a saber que una computadora con IA no solo nos derrota en ajedrez, sino que puede desarrollar una conversación a través de mensajes de texto, casi tan ‘razonables’ como los de una persona. De igual manera, mirar el rostro de esa persona y sabe si está mintiendo, o jugar en el mercado de valores mejor que un experimentado corredor de bolsa.
Pero lo más importante, y a la vez tenebroso: la inteligencia artificial está aprendiendo a aprender, a ser máquina de aprendizaje, asimilando datos a ritmo descomunal, en terabytes, es decir, en proporciones colosales. Las nuevas computadoras pueden recordar mucho más, acumular mayor información, sin fatiga ni errores.
Subalternos de las máquinas
Nosotros realizamos estos procesos en la mente, sin embargo, la IA puede extraer, contener y procesar muchos más datos que el cerebro humano. Las máquinas con esta técnica tienen el potencial de aprender más y más rápido que el ser humano.
Por ahora, el aprendizaje de estas máquinas se limita a temas específicos. Aunque si el límite se desborda, ¿a dónde iremos a parar? La historia será otra, ‘Otro gallo cantaría’, como decían las abuelas. Dejaríamos de ser los amos del planeta y terminaríamos siendo subalternos de las máquinas de inteligencia artificial.
Es precisamente esta perspectiva la que ha prendido las alarmas en los círculos más responsables de la política, la ciencia, la filosofía y la ética.
“Las empresas de tecnología tienen la responsabilidad de cerciorarse de que sus productos sean seguros antes de hacerlos públicos”, dijo recientemente el presidente de los Estados Unidos, Joe Biden. Al reconocer las posibles ventajas de la IA para abordar el cambio climático y la lucha contra las enfermedades, Biden expresó su preocupación por los riesgos potenciales que representa la IA para “nuestra sociedad, nuestra economía, nuestra seguridad nacional”. Advirtió el gobernante que la IA podría ser peligrosa.
Amenaza la democracia
Durante la inauguración de la Asamblea General de las Naciones Unidas, el pasado 20 de septiembre, el secretario general del organismo António Guterres advirtió que la inteligencia artificial “está comprometiendo la integridad de los sistemas de información, los medios y, de hecho, la democracia misma”.
Esta no es una preocupación nueva, viene de antaño. Antes de su fallecimiento, el destacado científico y astrofísico Stephen Hawking, ya habían advertido que el desarrollo de la inteligencia artificial podría significar el fin de la raza humana. Y llegaría el momento en que la máquina asumiría el control de las cosas.
Hace pocos días, Elon Musk, CEO de SpaceX, Tesla y Twitter, y Steve Wozniak, cofundador de Apple, suscribieron una carta, respaldada con la firma de más de mil ejecutivos y expertos en inteligencia artificial, en la que pide a las autoridades del mundo que se frene el entrenamiento de la IA.
Piden a todos los laboratorios de IA “pausar inmediatamente” el entrenamiento de los sistemas de IA más potentes que el GPT-4, durante al menos seis meses. “Los sistemas de IA con inteligencia humana competitiva pueden suponer graves riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA”, dice la carta.
Composiciones de poesía
Constata la nota que en los últimos meses los laboratorios de IA han entrado en “una carrera fuera de control” para desarrollar e implementar mentes digitales cada vez más poderosas, que nadie, si siquiera sus creadores pueden entender, predecir o controlar en forma fiable”.
El pronunciamiento de los expertos coincide con dos anuncios: Uno, del director ejecutivo de OpenAI, Sam Altman, creador del ChatGPT, quien admitió encontrarse “un poco asustado” por haber creado ese aparato. Dijo encontrarse “particularmente preocupado porque estos modelos pueden usarse para la desinformación en gran escala”, en alusión a la versión GPT-4 que “exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales”.
El otro anuncio proviene de China, en donde el buscador Baidu presentó el chabot de IA Ernie bot, alternativa china al ChatGPT, capaz de desarrollar tareas que incluyen comprensión y generación de lenguaje, conversión de texto a imagen, composición de poesía y producción de audio en dialectos chinos. Además, es capaz de crear itinerarios de viaje y realizar transmisiones en vivo para anunciar productos.
Los firmantes de la carta proponen aplazar la euforia y que se desarrollen los sistemas de IA cuando exista seguridad de que sus efectos serán positivos y sus riesgos manejables. Además, plantean la urgencia de instituir autoridades regulatorias de la inteligencia artificial. De lo contrario, “¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda o falsedad? ¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?, ¿deberíamos arriesgarnos a perder el control de nuestra civilización?”, se preguntan con amargura los autores de la nota.
Cambio fundamental
Los diseñadores de IA deberían insertar estratégicamente intervenciones humanas en la toma de decisiones algorítmicas y crear sistemas evaluativos que tengan en cuenta múltiples valores. El diccionario define el algoritmo como un conjunto ordenado de operaciones sistemáticas, que permite hacer un cálculo y hallar la solución de un tipo de problemas; una ecuación de pasos finitos bien definidos.
El caos comienza cuando el desarrollo autónomo de la inteligencia de la propia máquina le permite asumir nuevos roles y funciones. Tristan Harris y Aza Raskin, dos de los fundadores del Centro para la Tecnología Humana, en una reunión en San Francisco –en la primera semana de abril pasado–, explicaron que las nuevas tecnologías podrían cambiar el mundo de manera “fundamental”.
La forma en que se están implementando esas tecnologías no es “segura y responsable”, por el contrario, es “muy peligrosa”. El 50 por ciento de los investigadores de IA creen que hay un diez por ciento o más de probabilidades de que los humanos se extgan, debido a nuestra incapacidad para controlar la IA”, advirtió Harris, antiguo gestor de productos para Google.
La inteligencia artificial, que encarna valores humanos, requiere de una supervisión vigilante para evitar que surja su perverso potencial. Recientemente, los medios de comunicación registraron el hecho de que una empresa creadora de un robot con inteligencia artificial, debió suspender el funcionamiento de la máquina, pues había desarrollado la capacidad de proferir expresiones racistas insultantes y xenófobas contra minorías étnicas.
Lo peor de nosotros
Los analistas señalan que la inteligencia artificial es simplemente un reflejo de quiénes somos, en nuestro mejor y peor momento. “Queremos asegurarnos de que entendemos lo que está pasando, para que la IA no nos controle”, concluyeron Harris y Raskin.
De otra parte, el investigador de IA Dan Hendrycks, en un informe titulado La selección natural favorece a las inteligencias artificiales sobre los humanos, argumenta que “la selección natural crea incentivos para que los agentes de la inteligencia artificial actúen en contra de los intereses humanos”. Hace dos acotaciones al respecto:
“En primer lugar, la selección natural puede ser una fuerza dominante en el desarrollo de la IA”. En segundo lugar, la evolución por selección natural tiende a dar lugar a un comportamiento egoísta”, un sentimiento que los programadores pueden trasmitir a la máquina.
Hendrycks analiza cómo “la evolución hay sido la fuerza impulsora detrás del desarrollo de la vida” durante miles de millones de años, e insiste en que dicha “lógica darwiniana” podría aplicarse del mismo modo a la IA.
Afectará el empleo
La inteligencia artificial podría superar a la humanidad y plantea riesgos “catastróficos” bajo las reglas darwinianas de la evolución, dice el investigador. La competencia entre corporaciones o entre fuerzas militares “dará lugar a agentes de IA que automaticen los roles humanos, engañen a otros y obtengan poder”.
A medida que la inteligencia artificial se vuelva cada vez más competente, automatizará más y más trabajos, por lo que “los seres humanos se volverán cada vez menos necesarios para realizar tareas, hasta el momento en que nada dependerá realmente de nosotros”, pronostica Hendrycks. Ya hay estudios que indican que, en poco tiempo, la IA podría afectar hasta 300 millones de empleos.
La perspectiva es que la IA no solo pueda manipular el empleo, también incidiría en el aumento de la desigualdad, podría manipular un proceso electoral, incitar a gobernantes a cometer un genocidio. No obstante, la IA puede regularse, controlarse. No hay que temer a la IA sino a los que la manipulan. ¡Estamos a tiempo!
Ética urgente
A nivel internacional, ya se ha conformado un Grupo de Trabajo para contrarrestar el “uso malicioso” de la inteligencia artificial. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, Unesco, ha hecho un llamado clamoroso y urgente para articular un código de ética para la inteligencia artificial. China ha propuesto medidas en esta dirección para gestionar los servicios de IA en general.
Para protegerse de la “tiranía” de la técnica de la IA varios expertos sugieren: Reconocer que los algoritmos son matemáticas que se basan en representaciones digitales de fenómenos reales. Por ejemplo, en las redes sociales la amistad se mide por cuántos amigos tiene un usuario o por la cantidad de “me gusta” que reciben sus publicaciones.
“¿Eso es realmente una medida de la amistad?”, se preguntan. Las falsificaciones y las campañas de desinformación marcan una línea muy delgada en relación a los cometidos altruistas que pueda tener la IA y, por ello, la urgencia de códigos regulatorios y éticos.