noticia298
Ilustración de Fernando Nieto López/C3-UNAM

La Inteligencia Artificial, ¿también es un sistema complejo?

Para José Luis Mateos, la Inteligencia Artificial tiene propiedades emergentes.

   Elena Sánchez Ascencio
   17 de octubre de 2024

Aunque la inteligencia artificial (IA) está de moda dista mucho de ser un tema resuelto. Es más parecido a un problema a resolver, compuesto por diversas partes, que está cambiando rápidamente y mostrando nuevas características y posibilidades, por ello, el investigador del Instituto de Física y el Centro de Ciencias de la Complejidad (C3), José Luis Mateos, sugiere estudiarla como un sistema complejo.

Además, muchos de los temas pendientes de resolver sobre la IA, desde sus definiciones hasta sus implicaciones, no podrían ser analizados desde una sola disciplina, por lo que se requiere una mirada interdisciplinaria que permita ver sus usos y consecuencias desde una perspectiva integral.

“Así como es interesante conocer cómo funciona el cerebro humano, también es necesario entender la inteligencia artificial como propiedad emergente”, mencionó Mateos el pasado 5 de marzo en el Lunch Complejo del C3 titulado La revolución de la Inteligencia Artificial.

En su charla, Mateos hizo un recuento de la historia de la inteligencia artificial, desde Alan Turing, matemático informático inglés, quien fue el primero en preguntarse si las máquinas podrían pensar en 1950, hasta el día de hoy, donde herramientas como Chat GPT nos sugiere formas que imitan cada vez mejor a la mente humana.

El planteamiento de Mateos sobre la IA como sistema complejo está basado en el concepto de complejidad. Si damos por hecho que la complejidad estudia cómo interactúan las partes de un sistema para dar lugar a comportamientos colectivos emergentes que no son predecibles a partir de las propiedades individuales, entonces se puede interpretar que la IA puede ser un sistema complejo.

Por ejemplo, Chat GPT puede tener comportamientos aprendidos gracias al entrenamiento y la acumulación de datos que no necesariamente son predecibles.

“El desarrollo de Chat GPT es un ejemplo de inteligencia artificial generativa y al verlo como una propiedad emergente se puede estudiar como sistema complejo”, dijo Mateos.

Noticia 300
José Luis Mateos. Foto de María Fernanda Aguilera González/C3-UNAM.

Una propiedad emergente se refiere a la transición de un tipo de organización a otra, de complejidad superior. En el caso de la IA, se puede ver una transición de fase que tuvo la IA con Chat GPT. Es decir, pasamos de tener modelos de lenguaje limitados, a un chatbot pre entrenado con la capacidad de generar textos coherentes y detallados al alcance de cualquier persona con acceso a internet.

Pero el enfoque desde la complejidad va más allá de sus características emergentes. Otros autores como el italiano Luciano Floridi y el estadounidense Josh Clown, ambos investigadores del Oxford Internet Institute, han planteado que el pensamiento complejo considera no solo las intenciones detrás de los sistemas de IA y sus aplicaciones inmediatas sino también las consecuencias a largo plazo, las interacciones inesperadas y los efectos emergentes sobre individuos y sociedades.

En el caso de Chat GPT algunas de esas consecuencias inesperadas en la sociedad ya son visibles con ejemplos claros de desinformación, pues como dice la especialista en derecho procesal, María Dolores Sánchez de la Universidad de Sevilla en su reciente artículo, los datos con los que es entrenado el sistema de la IA pueden tener inconsistencias que reflejan sesgos inherentes. Por lo tanto, algunas de las respuestas generadas por ChatGPT pueden reflejar prejuicios implícitos en el texto con el que ha sido entrenado, tales como sesgos raciales, de género o culturales.

Por lo tanto, desde el punto de vista de la complejidad estos efectos pueden implicar consecuencias a largo plazo que relacionan el uso de ChatGPT con efectos inesperados en la sociedad.

Mateos considera que “ChatGPT se puede ver como un reflejo de la sociedad humana donde el cambio y el uso que le demos será gradual”. Por eso, por tener propiedades emergentes no lineales, muchos grados de libertad y consecuencias impredecibles, llevará tiempo comprenderlo, y será necesario utilizar distintas disciplinas y diferentes enfoques para lograrlo.

   La complejidad detrás de los Large Language Models

Chat GPT significó un cambio cualitativo en el comportamiento general de la IA que no se habría previsto al examinar sistemas a menor escala. Pero, ahora, ese cambio de transición pasó a un sistema superior con los sistemas de mayor escala conocidos como Large Language Models (LLMs) con los que se pueden realizar tareas lingüísticas de alta precisión.

En particular, Chat GPT puede generar textos creativos de distintos géneros, traducir idiomas, ayudar a redactar textos académicos, incluso identificar y corregir errores gramaticales.

Los LLMs son una forma de inteligencia artificial que involucra al Machine Learning y al Deep Learning. Estos sistemas están basados en redes neuronales artificiales, es decir, redes que imitan el funcionamiento de las neuronas biológicas a través de un entrenamiento que modifica la red neuronal.

Conforme la máquina recopila más información, su precisión para interpretar datos mejora y puede adaptarse a fin de lograr las tareas que imitan la inteligencia humana.

“Las neuronas artificiales están conectadas unas con otras, con entradas y salidas que involucran una dinámica no lineal”, explicó Mateos. Esto quiere decir que las neuronas no responden de manera proporcional a los estímulos que reciben y por eso pueden surgir propiedades emergentes.

Noticia 300
José Luis Mateos en el Lunch Complejo.
Foto de Elena Sánchez Ascencio.

Por ejemplo, si una neurona recibe una pequeña señal, puede no hacer nada, pero si la señal alcanza un umbral determinado, puede desencadenar una respuesta más grande, como un impulso eléctrico. Esta respuesta no lineal hace que la forma en que las neuronas responden a los estímulos y se comunican entre sí sea compleja y a veces inesperada.

Si la IA tiene características emergentes, para Mateos es pertinente plantear la pregunta de si una mayor escalabilidad podría ampliar aún más el rango de capacidades de los LLMs, es decir, en caso de que se amplíe el entrenamiento y el banco de datos de Chat GPT pueda aumentar la complejidad de las tareas que realiza.

Esta idea ya la han expuesto otros autores. En un artículo del 2022 en la revista Transaction on Machine Learning Research, el investigador de IA para la empresa OpenAI Jason Wei y colaboradores exploran las capacidades de los LLMs y analizan, justamente, la posibilidad de que surjan comportamientos emergentes futuros. También Sanjeev Arora y Anirudh Goya, investigadores informáticos, proponen en un artículo publicado en 2023 en ArXiv, una teoría para entender la emergencia de habilidades cuando se aumenta la complejidad de los LLMs.

Con los resultados de este tipo estudios se pueden analizar los futuros comportamientos de la AI y relacionarlos con factores importantes como la seguridad en el uso común de Chat GPT, así como las reglas y privacidad sobre la información de los usuarios, ya que el sistema de Chat GPT no solo se nutre de la información con la que ha sido inicialmente entrenado, sino también de la suministrada por los usuarios cada vez que emplean la aplicación.

Esto quiere decir que si se mide la capacidad de aprendizaje de la IA con bases de datos y simuladores que prueban las tareas que realizan los LLMs, se podrían ampliar las interpretaciones sobre sus consecuencias, sus ventajas y sus desventajas.

El hecho de que surjan nuevas habilidades de los LLMs cuando se amplían sus conjuntos de parámetros y corpus de entrenamiento es un fenómeno poco comprendido y su estudio podría describir las capacidades emergentes de la inteligencia artificial y ampliar la comprensión sobre su uso como herramienta.

Ligas de interés:

  Descarga el PDF de la noticia 300