
¿Has pensado que las cosas están avanzando muy rápido con ChatGPT y la inteligencia artificial en general? ¿Te asusta al menos un poquito lo que pueda pasar si la inteligencia artificial se sale de control o cae en malas manos?
Por: Andrés Meza Escallón
Inteligencia Artificial segura (parte 1)
En esta primera parte, analizaremos si estamos siendo demasiado paranoicos o si efectivamente hay motivos para preocuparnos.
Yo veo tres niveles de preocupación: el primero es sobre los efectos de las nuevas tecnologías sobre el mercado laboral y la economía en general. El segundo, se refiere al riesgo de que la tecnología cause daño, por fallas o por haber caído en malas manos. Y el tercer nivel es cuando la tecnología pone en peligro la existencia misma de la humanidad.
También te puede interesar: ChatGPT y DALL-E: quién es Sam Altman, el emprendedor que busca transformar el mundo de la inteligencia artificial
Primer nivel: crisis económica
El primer nivel es en el que nos encontramos ahora. Sobre las herramientas de inteligencia artificial que ya están disponibles, nuestra conclusión es que lo que nos va a dejar sin trabajo no es la inteligencia artificial (al menos no por ahora), sino otros seres humanos usando herramientas de inteligencia artificial. Esto implica que mucha gente va a sufrir mientras logran hacer esta transición, muchas empresas pueden irse a la quiebra o tener que despedir empleados, todo porque el cambio está ocurriendo demasiado rápido para nuestra capacidad de adaptación como sociedad. Es probable que muchos de los trabajos que hacemos hoy se vuelvan tan inútiles y sin sentido como ciertos políticos o los guardaespaldas de Jason Momoa. Y todo esto, asumiendo que la inteligencia artificial funciona bien y es usada correctamente. Bueno, ¿y qué pasa cuando no es así?
Segundo nivel: daños por fallas o mal uso
Ahí es donde viene el segundo nivel de preocupación. Como toda tecnología, hay que pensar no solo cómo la usaría el Papa Francisco o José Mujica para hacer el bien, sino también cómo la usaría Hitler, o Putin o Donald Trump para perseguir a sus enemigos.
Si hoy en día gracias a Edward Snowden sabemos que la NSA gringa espía rutinariamente llamadas telefónicas y correos electrónicos desde hace años, ¿te imaginas lo que podrán hacer con la ayuda de inteligencia artificial? Esa es justamente la premisa de la maravillosa serie Person of Interest de 2011.
A esto se suma que ya estamos cerca del punto en que no podremos distinguir lo real de lo que no lo es. Como la foto del Papa Francisco que se volvió viral porque mucha gente la compartió creyéndola real, cuando en realidad fue generada por una herramienta de inteligencia artificial. Así, para bromistas, estafadores, manipuladores profesionales y criminales está siendo cada vez más fácil usar herramientas de inteligencia artificial para engañar a sus víctimas. Por eso no falta mucho para que cuando recibamos una llamada, el video y el audio que percibimos posiblemente no sea auténtico, de lo cual no nos daríamos cuenta porque es igualito al genuino.
Esto es preocupante porque mucha gente podría decidir no votar por un candidato o incluso estaría dispuesta a ir a la guerra si ven supuestas pruebas como fotos, videos o grabaciones de dicho personaje haciendo algo indebido. Los políticos siempre dicen “esto es un montaje para desprestigiarme”, pero de ahora en adelante ya nos quedará la duda de si, tal vez, ahora sí estén diciendo la verdad.
En este segundo nivel de preocupación también está cuando la inteligencia artificial falla por problemas de diseño e implementación, como el sesgo de datos: si la IA se entrena con datos sesgados, es probable que refleje y amplifique ese sesgo en su comportamiento. Esto puede llevar a la discriminación y otros problemas éticos. Por ejemplo, para entrenar una máquina que ayude a identificar a los mejores candidatos a astronautas, deberíamos usar las hojas de vida de astronautas reales para que la máquina aprenda a reconocer patrones y características clave de los que ya alcanzaron la meta deseada. Suena lógico, ¿verdad? Pues NO.
En sus inicios, uno de los requisitos para ser astronauta era ser piloto militar de pruebas y tener un grado en ingeniería, por lo que en ese entonces ninguna mujer pudo siquiera ser considerada, a pesar de que pudieran estar tanto o más calificadas que sus colegas masculinos. De hecho, una adolescente llamada Hillary escribió a la NASA en 1961 a preguntar qué podría hacer para convertirse en astronauta, a lo que le respondieron que las mujeres no eran aceptadas en el programa. Punto. Y aunque la NASA empezó a entrenar algunas mujeres en la década de los ochenta, y hoy hay paridad de género, de las más de 500 personas que han ido al espacio, solo el 11 % han sido mujeres.
Esto llevaría a que la máquina aprenda, erróneamente, que ser de sexo femenino es un factor en contra de un candidato a astronauta. Por eso, en el campo de la inteligencia artificial tenemos que ser muy cuidadosos a la hora de usar datos históricos, que podrían representar lo que fue, pero no necesariamente lo que debería ser. Toca estar al tanto del contexto y tratar de compensar los sesgos como el de género, etnia, nacionalidad, escolaridad, etc.
Tercer nivel: peligro para la existencia humana
Y en el tercer nivel de preocupación está el riesgo de que una inteligencia artificial muy avanzada y poderosa decida un día dejar de obedecernos y hacernos daño. En este punto, tradicionalmente no ha habido una posición unánime entre los científicos e ingenieros, quienes están divididos en dos bandos:
En el primero, están los optimistas, quienes creen que inteligencias artificiales más poderosas pueden ser programadas para seguir ciertas reglas éticas y morales, y que su comportamiento puede ser supervisado y corregido por los seres humanos. Algunos de los defensores más destacados de esta posición son Andrew Ng, científico y empresario conocido por su trabajo en inteligencia artificial y aprendizaje automático, y por cofundar Coursera y Google Brain; también está Stuart Russell, científico de la Universidad de California Berkeley, conocido por su libro Inteligencia Artificial: Un Enfoque Moderno, y Demis Hassabis, científico y empresario conocido por su trabajo en aprendizaje profundo, y por cofundar la empresa de inteligencia artificial DeepMind. O sea, no son ningunos ignorantes, pero a mí me sigue pareciendo que ven a la inteligencia artificial de hoy como estos dragoncitos (armadillo girdled lizard) que caben en la mano, y que si muerden a su dueño, lo pueden disciplinar con una palmada.
En el segundo bando, están los cautelosos, quienes creen que la IA va a evolucionar hacia un estado en el que esté fuera del control humano y podría tomar decisiones que resulten perjudiciales para la humanidad. Es decir, los que creen que este dragoncito, más pronto que tarde va a crecer hasta volverse un dragonsazo imposible de controlar, como Vaghar de House of the Dragon. Algunos de los defensores más destacados de esta posición incluyen a Nick Bostrom, profesor de la Universidad de Oxford, autor del libro Superintelligence: Paths, Dangers, Strategies; también está Elon Musk, el dueño de Twitter, SpaceX, Tesla y quien donó US$100M a OpenAI, cuando todavía era una empresa sin ánimo de lucro.
El desarrollo de modelos como GPT4 ha sido tan acelerado que hasta varios de los defensores del bando optimista, como Stuart Russell, se están uniendo a los del lado cauteloso. Ellos y muchos otros científicos e ingenieros somos (y digo somos porque yo también firmé) los firmantes de una carta abierta a los laboratorios de inteligencia artificial como OpenAI, y de corporaciones como Google, Facebook, Amazon, Apple, etc., para pausar por seis meses esa carrera desenfrenada por sacar modelos cada vez más poderosos sin evaluar las consecuencias. Consideramos que “la investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”. Es decir, no necesitamos que emerja una súper inteligencia artificial en un futuro cercano para asustarnos, las herramientas que ya están en el mercado hoy tienen suficientes problemas como para que estemos más ocupados en solucionarlos que en buscar cómo crear inteligencias artificiales todavía más poderosas. Hablemos un poco de cuáles son esos problemas.
Problemas con la inteligencia artificial
Primero, tenemos el problema del sesgo de datos, del que hablamos hace un momento.
Segundo, tenemos el problema de la alineación: la inteligencia artificial podría ser programada para seguir ciertas reglas éticas y morales, pero ¿cómo garantizamos que esas reglas sean las correctas y que la IA las siga correctamente?
Este es uno de los retos que me parecen más complejos, porque lo que en una cultura es válido, en otras culturas puede ser tabú o incluso ilegal, entonces llegar a un consenso de qué es bueno y qué es malo, blanco o negro, es complicado en un mundo lleno de matices y de escalas de grises. Ahora, suponiendo que resolvimos este problema, ¿cómo nos aseguramos de que la IA no desarrolle con el tiempo objetivos diferentes a los nuestros?
Es básicamente el mismo problema al que se enfrentaron nuestros padres. Mientras éramos niños, ellos tomaban las decisiones por nosotros siguiendo sus principios éticos y morales, pero cuando llegamos a la adolescencia, solo algunos de los valores, costumbres y principios que trataron de inculcarnos quedaron, mientras que otros de pronto no, y empezamos a tomar decisiones distintas de las que ellos tomarían. Por eso es que en familias donde han sido hinchas del glorioso Deportivo Cali por varias generaciones, ¡tan! les sale un hijo americano. Imaginen la angustia de esas pobres familias, preguntándose qué hicieron mal, pero ya no hay nada que puedan hacer porque ya su hijo es un adulto autónomo.
Pero vas a decir que esta analogía no aplica porque en cuestión de gustos no hay reglas y que los valores sí se heredan. Pues te traigo el ejemplo de la familia de Hugh Rodham, un empresario textil de clase media que crio a su familia en las afueras de Chicago en la década de los cincuenta con los valores conservadores republicanos y de la religión protestante metodista. Su hija mayor siguió su ejemplo, fue la que mandó la carta a la NASA preguntando qué podía hacer para convertirse en astronauta. Ella se educó bajo un profesor de historia ferviente anti-comunista e incluso llegó a ser presidenta de los Jóvenes Republicanos cuando estudió en el Wellesley College. Pero después de conocer a Martin Luther King Jr. y verse expuesta a otros puntos de vista, ya los valores conservadores no le parecieron satisfactorios y en 1968 se pasó a los demócratas. Hoy, esa chica inquieta ayudó a su marido a llegar a la Casa Blanca y fue la que le peleó a Donald Trump la presidencia de Estados Unidos por el partido demócrata, más conocida como Hillary Rodham Clinton. Así que, si las posiciones políticas, los valores y principios no necesariamente se heredan entre los seres humanos, es concebible que también nos pase con inteligencias artificiales lo suficientemente avanzadas y complejas y no logremos transmitirles con suficiente impacto nuestros valores.
En palabras de Arram Sabeti, un empresario tecnológico e inversionista en varias empresas de inteligencia artificial, “nadie sabe cómo describir los valores humanos. Cuando escribimos leyes hacemos lo mejor que podemos, pero al final la única razón por la que funcionan es porque su significado es interpretado por otros humanos con un 99,9 % de genes idénticos que implementan las mismas emociones básicas y arquitectura cognitiva. ¿Qué sucede cuando tratamos de dar leyes o describir valores a mentes alienígenas que son mucho más inteligentes que nosotros? No se puede enfatizar lo suficiente, puesto que no tenemos idea de cómo hacer esto. Esto no es solo un problema de ingeniería. No tenemos idea de cómo hacerlo, incluso en teoría”. Para mí, esto significa que en algún punto en el futuro cercano, nuestro ChatGPT del momento dejará de obedecer y empezará a cantar It’s my life de Bon Jovi.
Tercer problema: cuanto más compleja es la IA, más difícil es entender cómo funciona y cómo se comportará. Incluso si se puede programar la IA para seguir reglas éticas y morales, no hay garantía de que esas reglas se mantengan constantes y previsibles a medida que la IA evoluciona. En esencia, nos enfrentamos hoy a una caja negra que ya no entendemos del todo, y a medida que tengamos modelos y sistemas más complejos, seremos cada vez más dependientes de otras máquinas para que nos ayuden a diseñar, diagnosticar y reparar nuestros sistemas de inteligencia artificial. Eventualmente, no quedarán seres humanos con suficiente entendimiento como para identificar problemas por sí mismos y mucho menos corregirlos.
Y el cuarto problema es el de la supervisión humana: incluso si la IA es programada para seguir ciertas reglas éticas y morales, ¿cómo aseguramos que los seres humanos que supervisan su comportamiento tengan los recursos y la capacidad para detectar y corregir cualquier problema? Como vimos hace un momento, la sola complejidad ya nos está desbordando y además se está invirtiendo más bien poco en la investigación y desarrollo de herramientas que faciliten dicha supervisión. Así que cuando la inteligencia artificial empiece a comportarse de formas que se alejen de sus objetivos programados, posiblemente nadie se dé cuenta sino hasta cuando ya sea demasiado tarde.
Conclusión
En conclusión, sí tenemos motivo de preocupación, aunque afortunadamente está creciendo la conciencia de que tenemos que empezar a poner algunas reglas antes de que esto se acabe de salir de control. En la segunda parte hablaremos de quiénes son los culpables de esta situación y cómo llegamos a donde estamos.
También te puede interesar: El terror que empieza a causar la Inteligencia Artificial
