¿Nos hace la Inteligencia Artificial más o menos inteligentes?

Los últimos desarrollos de la IA abren puertas a posibilidades no sospechadas. Como toda revolución tecnológica, nos cambiarán. Debemos aprender a avanzar con ella, lo que nos obliga a nuevas formas de ser inteligentes

“¿Nos está volviendo Google estúpidos?”, se preguntó en un famoso artículo en 2008 Nicolas Carr, analista de renombre sobre las implicaciones de la tecnología. Su respuesta general, afirmativa, no ha sido confirmada por el paso del tiempo, aunque sí en el sentido de que ha cambiado en parte los modos de proceder de nuestros cerebros, como nuestra memoria. Aquello ya era una Inteligencia Artificial (IA) que estaba abriendo nuevos presentes y futuros, pese a que resulte disputable si se trata de “inteligencia”. Lo sea o no, los últimos avances nos ponen ante un cambio de paradigma, según consideran los polimatas Henry Kissinger, Eric Schmidt y Craig Mundie, en lo que es un indispensable libro póstumo del primero, Genesis. Hoy cabe retomar la pregunta de Carr en lo referente a la IA. ¿Nos está volviendo o nos volverá más o menos inteligentes? O más bien ¿nos está abriendo, u obligando a, nuevas formas de ser inteligentes? 

No entraremos a definir aquí qué es “inteligencia”. Baste intuirlo sin ignorar que el saber y la sabiduría poco tienen que ver con la inteligencia. Stendhal, por citar un ejemplo, que sabía mucho y plasmó su saber en grandes novelas, no era especialmente inteligente.

La IA generativa, de los grandes modelos de lenguaje, ha sido el último paso, tras los avances que han supuesto el deep learning (aprendizaje profundo) y otras técnicas asociadas.  Según Sam Altman, director ejecutivo de OpenAI (propietaria de ChatGPT), “en las próximas dos décadas, podremos hacer cosas que a nuestros abuelos les habrían parecido magia”. Lo llama “la era de la IA”. Los citados polímatas prefieren hablar de “las eras de las IAs”, pues variarán mucho entre sí, según su desarrollo. De hecho, la diversidad y la competencia no se han hecho esperar, con la sorpresa, a pesar de las sanciones, de la china DeepSeek, con un nuevo modelo más barato de desarrollar, que consume menos información y energía, gratuito y de código abierto frente a otras propietarias, lo que puede multiplicar su uso y las aplicaciones derivadas.

Estos avances nos están cambiando a los humanos que somos seres esencialmente técnicos. Todas las tecnologías nos cambian, pero no necesariamente nos hacen más inteligentes, como señala el investigador Gianni Giacomelli. La agricultura no hizo a los humanos que la practicaron más listos que los cazadores. La imprenta sí impulsó la inteligencia. El GPS parece haber reducido las célebres capacidades de memoria espacial y geográfica de los taxistas londinenses. Nuevas tecnologías suelen llevar a nuevas capacidades. ¿Y esta vez?

La IA, incipiente, se ha metido ya de lleno en nuestra economía y nuestra sociedad, y los seres humanos estamos inmersos en ella. ¿Es bueno para nuestra inteligencia? La cuestión no es la tecnología en sí, sino cómo nos adaptamos a ella. cómo la integramos, desarrollando nuevas capacidades humanas. La IA generativa se está metiendo en todo. Ya no escuchamos, en las plataformas de streaming al uso, la música que queremos escuchar, sino la que nos traen los algoritmos, a menudo falseándola. El control ya no es del usuario. Hay que recuperarlo antes de que sea demasiado tarde, y si es posible.

Las últimas tecnologías están detrás de la razón por la que Brain Rot (pudrición cerebral) ha sido elegida palabra del año 2024 por Oxford University Press, editora del Diccionario Oxford de la lengua inglesa que la define como “el supuesto deterioro del estado mental o intelectual de una persona”, resultado del “consumo excesivo” de material trivial, especialmente el que se encuentra en Internet. Los usuarios, como avalan diversos estudios, se fían en exceso de lo que produce esta IA (como antes del buscador Google o del tan escuchado “lo he leído, o visto, en internet”). No comprueban, lo que aumenta los errores de máquinas y de humanos. Un exceso de confianza puede resultar peligroso. 

Esta IA puede favorecer la inteligencia colectiva. Pasar del “yo automatizado” al “nosotros aumentado”, como lo pone Giacomelli. Aunque puede ser en parte más artificial. Altman cree que “con el tiempo, cada uno de nosotros puede tener un equipo personal de IA, lleno de expertos virtuales en distintas áreas, que trabajen juntos para crear casi cualquier cosa que podamos imaginar”. O inimaginable. ¿Extensión ilimitada de la mente? La necesitaremos. Pues con cada giro de complejidad que se añade a los problemas del mundo, el cerebro pierde capacidad para resolverlos“, escribe Annie Murphy Paul, para la cual tendremos que aprender a pensar mucho más ”fuera de nuestro cerebro“.

Como señala Kai-Fu Lee, ex Google en China, “en la era de los grandes modelos, la persona más poderosa no es la que puede escribir el mejor contenido, sino la que puede hacer las mejores preguntas”. La necesidad de saber preguntarle y conversar con la IA para lograr los resultados buscados va a resultar esencial. Esta es quizás la nueva meta de la enseñanza con y en tiempos de la IA, o las IAs: aprender a preguntar. Lo que implica tener muchos conocimientos previos y dominar toda una serie de técnicas para sacarle provecho. Más aún cuando la propia tecnología es cada vez más “el campo de las respuestas, pero cada vez cuesta más hacerse preguntas”, como señala el filósofo Norbert Bilbeny. Por eso hay que desarrollar el espíritu crítico y la capacidad de intuición y de comprensión de los humanos que, quizás, solo quizás, las máquinas no lleguen nunca a tener.

La IA está planteando un reto mayúsculo a profesores y alumnos. Usar ChatGPT u otras IAs generativas hace que las evaluaciones escritas carezcan ya de sentido, con el peligro de caer en la pereza intelectual. Es decir que, como el buscador Google, la IA nos puede volver no ya más estúpidos, pero sí más vagos, más comodones y, en consecuencia, más manipulables. Todo en medio de la limitada capacidad de atención que tenemos, que nos quieren capturar algunas tecnologías, algunas empresas, con fines comerciales o políticos.

La IA, al menos esta IA que saca de nosotros mismos su información, nos la devuelve, según la tesis de la filósofa Shannon Vallor (The AI Mirror). Como “espejos gigantes hechos de código, construidos para consumir nuestras palabras, nuestras decisiones, nuestro arte… y luego nos los refleja”. Con nuestros sesgos. Como recursos el pasado, ante de generar un futuro de florecimiento de la humanidad y del planeta“. 

Ahora bien, cuando, como parece, estamos llegando al límite de los datos generados por humanos, para dar paso a los datos llamados sintéticos, se abre un nuevo mundo, incierto, que puede que no lleguemos a comprender. Por ello, en la medida de lo posible, es necesario regularla. Lo que no quieren los nuevos señores del tecnofeudalismo. Trump, en uno de sus primeros decretos presidenciales, ha empezado a desmontar el entramado de su regulación que estaba poniendo en pie la Administración Biden para reducir posibles riesgos de la IA. Seguirán otros pasos. Después, irá contra la regulación europea, la más avanzada.

¿Nos reemplazará la IA? Muchos avances en biotecnología y medicina, por ejemplo, son fruto de las nuevas capacidades en IA, que nos obligan a ser más inteligentes, de otra forma, so pena de caer en una crisis existencial. Nos abre nuevas posibilidades. En algunas tareas nos complementará, en otras nos reemplazará, y en otras permitirá inventar tareas y responsabilidades en las que no habíamos ni pensado. Una encuesta de Voronoi en 33 países sobre si la IA creará muchos nuevos empleos muestra un claro optimismo en el llamado Sur Global (con China, Indonesia y Tailandia en cabeza) y más escepticismo en los países del Occidente Global. Quizás porque el Sur se ve yendo hacia arriba y el Norte hacia abajo, al menos en términos relativos. 

Se está demostrando que esta IA generativa de los grandes modelos de lenguaje aumenta la capacidad de persuasión respecto a los mensajes generados por humanos. ¿Son una prueba algunos de los resultados electorales del año 2024 en el que la IA ha desempeñado un papel importante? 

No nos pensemos que la IA solo sirve para “lo bueno”. También aporta más “inteligencia” para “lo malo”. Puede ser benigna o maligna, según la usemos individual y colectivamente. Está ya presente en todas las guerras, lo que no reduce la letalidad de estas. Hace unas semanas hizo su aparición en un atentado terrorista. Según la policía de Las Vegas, Matthew Livelsberger, el soldado en activo que hizo explotar un cibercamión Tesla alquilado a las puertas del hotel Trump Towers y que se suicidó después de un disparo, utilizó IA generativa para planear su atentado. Sus consultas en ChatGPT sugieren que no solo investigó sobre explosivos y otras materias, como la velocidad de las balas. “Es el primer incidente del que tengo conocimiento en suelo estadounidense en el que se utiliza ChatGPT para ayudar a un individuo a construir un dispositivo concreto”, declaró el sheriff local, para el cual “es un momento preocupante”. OpenAI, lo lamentó y dijo que estaba contribuyendo a la investigación de ese atentado.

Y claro, luego está la dimensión geopolítica. Es porque la IA nos hace colectivamente más inteligentes por lo que las superpotencias quieren controlarla, dominarla. Especialmente Estados Unidos y China.

Solo estamos al principio, y sí, mucho nos parece magia, aunque no veamos bien quiénes son los magos. ¿Esa oligarquía tecnológica, ese “complejo industrial tecnológico” que está tomando forma en EE UU, contra los que alertó Biden en su discurso de despedida, como Eisenhower ante lo que llamó el “complejo industrial-militar 64 años antes? ¿Qué inteligencia humana controla la inteligencia artificial? ¿El nuevo tecnofeudalismo? Aunque el mayor riesgo, existencial, puede acabar siendo que nadie la controle, ni siquiera sus supuestos dueños.

En cuanto a la sabiduría … otra vez será.