Con un panel de especialistas de la ingeniería, el derecho, el cómputo, la innovación y
la comunicación, dio inicio el pasado martes 29 de agosto el primer encuentro CITA
(Ciencia, Innovación, Tecnología y Academia), una iniciativa de la Academia Mexicana
de Ciencias (AMC) y el Centro de Ciencias de la Complejidad (C3) de la UNAM.
CITA es organizado por la coordinación de comunicación del C3, y su coordinadora
Julia Tagüeña, con el fin de tener un espacio mensual en el que se reúnan miembros de
distintas comunidades, de la ciencia, la tecnología, la innovación, la comunicación de la
ciencia, y el público no especializado, para intercambiar perspectivas sobre temas
científicos y tecnológicos relevantes y coyunturales.
“La idea era tener una especie de foro que concentrara a la comunidad científica para
discutir temas de actualidad, donde gente con distintos interesas pudiéramos converger,
platicar, y escuchar distintos puntos de vista”, dijo José Seade, presidente de la AMC,
en la inauguración.
“El C3 tiene un conjunto de amigos, un conjunto de redes y colaboraciones
verdaderamente sobresaliente”, aseguró el coordinador general del C3, Xavier Soberón
Mainero. Y esto “se nota en las iniciativas que se acercan al Centro (…) Todo augura a
que tendremos conversaciones realmente enriquecedoras, realmente atractivas, que
fomenten una de las grandes metas que tenemos en el C3: tener redes de
colaboración”.
El primero de estos encuentros CITA fue dedicada a la inteligencia artificial con una conferencia titulada “Turing, ChatGPT y las promesas de la Inteligencia Artificial”, a cargo de Luis Pineda, investigador del Instituto de Investigaciones de Matemáticas Aplicadas y Sistemas (IIMAS), e integrante de la AMC y la Academia Mexicana de la Computación.
Tras la charla, un panel interdisciplinario compartió sus reflexiones. Participaron Ingrid Motta, de la empresa BrainGame Central; Alejandro Pisanty, de la Facultad de Química, UNAM; Pedro Salazar, del Instituto de Investigaciones Jurídicas, UNAM; y Aleida Rueda, de la Unidad de Comunicación del C3-UNAM, bajo la moderación de Julia Tagüeña, investigadora del Instituto de Energías Renovables y del C3.
La compleja idea de pensar
“La inteligencia artificial generativa, como el ChatGPT, llegó para quedarse (…) Estas
herramientas van a llegar al público en general y la única solución de largo plazo es una
sociedad mucho más educada y mucho más crítica”, dijo Pineda en su charla.
Pero un asunto que frecuentemente se cuestiona es si estas herramientas de la
inteligencia artificial son capaces de pensar. En realidad, dijo, muchas de ellas son
máquinas pre entrenadas para generar modelos de lenguaje cuya idea básica es “que el
lenguaje que se va a emitir se puede predecir a partir del lenguaje que se ha
observado”.
Es el caso del ChatGPT, un modelo de lenguaje basado en una red neuronal que fue entrenado a partir de todo el texto disponible de internet en 2021 y que es capaz de predecir la palabra que le sigue a la frase que alimenta el sistema. “Estuvieron entrenando esta red durante todo el año con un montón de super computadoras que gastan una cantidad tremendamente grande de energía”, dijo Pineda.
Lo que consiguieron fue hacer de esta herramienta una inmensa fuente de información:
“Por ejemplo, si yo ingreso las palabras Sor Juana, el ChatGPT se retroalimenta y me
dice Sor Juana fue una, luego Sor Juana fue una escritora, y así, sucesivamente, se va
extendiendo”, dijo el ponente.
ChatGPT usa, además, un aprendizaje por refuerzo para castigar o penalizar frases que
no son convenientes, como el lenguaje inapropiado. Si bien podría ser una forma
positiva de ver estas tecnologías, también propicia muchos retos en términos de
derechos humanos, pues “muchísimos seres humanos están trabajando y etiquetando
estas frases y penalizándolas para el ChatGPT no la produzca”.
Para el investigador, más que una herramienta pensante, ChatGPT es una herramienta
“fluctuante” que “dice cosas falsas, se contradice y comete errores de juicio. Y como ser
obcecado y contradictorio es signo de no estar pensando, entonces ChatGPT no está
pensando”.
Por eso, dijo Pineda, “no tiene fundamento la idea de que las máquinas van a dominar
el mundo”. Lo que sí sucederá, aseguró, es que se van a usar cada vez más, van a
propiciar un remplazamiento laboral que requerirá profesionales de mayor calidad y
también nuevas formas de pensar y evaluar los sistemas de educativos. Frente a eso, lo
que necesitamos, insistió, “es una sociedad cada vez más educada y crítica”.
Regulación, gobernanza y comunicación, los grandes desafíos
Como respuesta a la ponencia de Pineda, los panelitas invitados intercambiaron sus puntos de vista sobre los principales desafíos en el uso de la inteligencia artificial en diversos sectores de la vida en sociedad.
Ingrid Motta dijo que es importante entender la forma en la que la IA permea en nuestras vidas y no solamente repetir de forma simplista que estas herramientas son peligrosas o no. “Esto es la punta del iceberg. El ChatGPT y su capacidad para procesar datos es la punta del iceberg. Esto irá cada vez más rápido”. Y tendrá impacto en la geopolítica: “Quien pueda tener la capacidad energética de procesamiento de datos es quien va a tener el poder económico del mundo”, dijo.
Para Alejandro Pisanty hay varias lecciones aprendidas de la gobernanza de internet
que se propuso desde hace 25 años y que pueden ser útiles para la gobernanza de la
inteligencia artificial. “Hay que tomar acuerdos sobre temas específicos donde hay
problemas que resolver”, dijo. Esto significa que, en lugar de buscar tener regulaciones
muy robustas, pero poco prácticas, hay que iniciar con un modelo en el que se analiza
qué pasa con la IA en temas específicos: los dispositivos médicos, las publicaciones, la
creatividad, la propaganda política, etcétera.
De esta manera, la regulación de la AI puede ser una extensión de los acuerdos que ya
imperan en esos ámbitos. “Hay que bajarle un poquito a la comezón de regularlo todo. Y
hay que verlo aplicación por aplicación para entender qué es lo que realmente hace
falta”, afirmó.
El abogado Pedro Salazar abordó algunas de las preguntas que está generando la IA
en el mundo del derecho. Por ejemplo, “¿qué va a pasar con el ejercicio de la profesión
jurídica y a quién le va a afectar y a quién le va a dar herramientas o instrumentos para
potenciar en sentido expansivo sus capacidades?”. En ese sentido, dijo, las
herramientas de la IA van a facilitar varias labores de la jurisprudencia, como el hacer
comparaciones entre leyes o discernir precedentes judiciales.
Pero utilizar la IA en una siguiente capa, de decisiones jurídicas, puede ser un riesgo. Un ejemplo es COMPASS, una herramienta de la IA que se utilizó en Estados Unidos para medir las posibilidades de reincidencia entre personas que cometieron actos delictivos y que derivó en sesgos y estigmatización. “Dado que la IA se alimenta de la información existente, también puede reproducir los sesgos de los sistemas penales”, dijo Salazar.
Finalmente, tras la pregunta de Aleida Rueda, el panel coincidió en que uno de los grandes retos está relacionado con la comunicación y la responsabilidad que tiene la comunidad científica de hablar de la IA de manera responsable, clara y en su justa dimensión, de manera que se disminuya la brecha entre la sociedad y las comunidades que desarrollan y estudian estas tecnologías en esferas más especializadas.
Ligas de interés: