La Verdad Académica

Inteligencia artificial en la UACJ: desafíos en su uso y en la formación de especialistas



martes, agosto 19, 2025
Fotografía: ITT / UACJ

Especialistas en IA de la Universidad Autónoma de Ciudad Juárez trabajan con ordenadores que simulan el pensamiento humano, capaces de recoger datos, tomar decisiones y actuar en función de la información que les es dada, al tiempo que buscan sentar las bases para una guía de uso responsable, tanto para estudiantes como para docentes e investigadores

Por Anabel Rojas / La Verdad Académica*

Gilberto Rivera Zárate tuvo su primer acercamiento al almacenamiento, proceso y transmisión de información de manera automatizada a los 13 años, cuando su padre lo inscribió en un curso de informática. Ese interés por la programación lo colocó, años más tarde, a la cabeza de un equipo de expertos que forman a nuevos creadores de inteligencia artificial (IA) en la Universidad Autónoma de Ciudad Juárez (UACJ).

Desde hace un año, la UACJ comenzó la formación de nuevos ingenieros en IA con la Ingeniería en Ciencia de Datos e Inteligencia Artificial, y la maestría en Inteligencia Artificial y Analítica de Datos, programas en los que Rivera tuvo participación en el desarrollo de los planes de estudios.

“Los nuevos desarrollos deben verse como un tipo de asistente que llegó para ahorrar tiempo en tareas que ya se dominan y no como algo que desplazará al humano”, expone Rivera Zárate, coordinador y docente de esa maestría, en entrevista con La Verdad Académica.

Hasta hace algunos años hablar de inteligencia artificial planteaba un panorama futurista: ahora es parte de la cotidianidad, reflexiona. Desde las redes sociales y sus algoritmos predictivos, hasta los sistemas que diagnostican enfermedades o los instalados en los autos que conducen de manera autónoma, la nueva tecnología está cargada de múltiples posibilidades y, a su vez, de retos en la ética.

Gilberto Rivera Zárate. Fotografía: Anabel Rojas / La Verdad Académica

Pero ¿qué es la inteligencia artificial? Rivera Zárate explica que es un “software que es capaz de desarrollar las capacidades como un humano, es capaz de aprender, es capaz de inferir, de intuir, etcétera”.

Aunque no es inteligente en todas las áreas, agrega, puede desarrollar la tarea para la que fue programada.

Gilberto Rivera, quien fue recientemente nombrado senior member por el Instituto de Ingenieros en Electricidad y Electrónica (IEEE, por sus siglas en inglés), comenta que uno de los software de acceso masivo actualmente es ChatGPT, que es capaz de procesar datos de todo el mundo. “Da la sensación de inteligencia a través de eso, desde una interfaz que pareciera que platica contigo”.

En opinión de Rivera, fue justamente la cantidad masiva de datos que se generaron lo que hizo posible tener la cantidad suficiente de información para educar a las IA, ya que el sistema en sí se desarrolló mucho antes.

“Las condiciones tecnológicas se dieron para que un modelo de hace décadas ahora funcionara en problemas difíciles, porque siempre ha funcionado en problemas fáciles, pero en problemas difíciles no. Se sabía que iban a funcionar, pero, pues no podíamos echarlas a andar por la falta de datos, no había el volumen de datos para entrenarla”, señala Rivera Zárate, quien cuenta con un doctorado en Ciencias de la Computación por el Tecnológico Nacional de México.

Te puede interesar: Desde la UACJ se investiga fármaco en desarrollo para frenar las células del cáncer de mama

¿Amenaza o herramienta?

El doctor Rivera sostiene que en esta época un gran desafío de la inteligencia artificial es su correcta utilización. Explica que estas herramientas deben ser vistas como ayudantes, o sea, como algo que hace más fácil llevar a cabo tareas conocidas y no como un reemplazo.

Sobre la mesa hay una discusión entre los profesionales en varias áreas –como la medicina, el periodismo, la docencia, la comunicación, la ingeniería, la manufactura, entre otras– sobre si el uso de la inteligencia artificial es ético y si, en un futuro, logrará reemplazar a las personas.

Ante este cuestionamiento, que se sostiene en varias disciplinas sobre si el uso de IA falta a la ética, Rivera es muy directo: “Hay que diferenciar a lo mejor dos cosas. Y una es no generar contenido original, y otra es utilizar herramientas para mejorar tu contenido original. Yo creo que son cosas diferentes, porque estas IA son lo que llamamos ‘puro conocimiento reciclado’”.

Expone que las IA no generan conocimiento nuevo, sino que trabajan a partir de información recopilada y aprendida; de ahí que el doctor la llame “conocimiento reciclado”. En su opinión, la verdadera tarea de los profesionales en cualquier disciplina es justamente la creación original, aunque aclara que el uso de estas herramientas no resta valor ni mérito a su labor.

“¿Cuál es el afán de reinventar la rueda? Enfócate en lo importante, enfócate en lo que tiene valor, en lo que nadie puede hacer”, aconseja Rivera, quien motiva el uso de las IA.

Rivera reconoce que antes debía invertir mucho tiempo realizando tareas que ahora la IA las realiza en cinco minutos, por ejemplo, preparar presentaciones. Ahora ese tiempo lo invierte en buscar nuevas formas para interactuar con los alumnos que les permitan reflexionar entre ellos.

Sobre estos desafíos de integrar la inteligencia artificial en el ámbito académico de manera ética, crítica y pertinente, el doctor en Ciencias Sociales Patricio Vázquez Antúnez, quien además es docente en la UACJ en los programas de Sociología y Nutrición, dice que el reto es enseñar a los alumnos a utilizar la IA como una herramienta y no como una panacea de sus responsabilidades.

Lee también: Centro atmosférico de la UACJ, clave en el monitoreo de la contaminación

Al mismo tiempo, considera que “darle un uso incorrecto y abusivo, puede traer también la consecuencia que los estudiantes no desarrollen la potencialidad de sus capacidades”.

Aunque Vázquez reconoce que la IA se seguirá desarrollando, no piensa que sea posible que, en el futuro, se pueda reemplazar a los humanos en tareas como, por ejemplo, la docencia, puesto que, para él, esta profesión necesita creatividad, ingenio, sensibilidad, pasión y vocación, elementos que solo un ser humano puede tener.

El doctor Rivera dice que la UACJ abre reflexión y análisis en torno a las implicaciones éticas, educativas y sociales de la inteligencia artificial en la educación con el Foro UACJ: IA en el ámbito educativo, que arranca este día en la ciudad.

Con esta actividad se busca sentar las bases para una guía de uso responsable de la IA, tanto para estudiantes como para docentes e investigadores, de acuerdo con la UACJ.

Dentro de este foro Rivera guiará el taller Press start to learn. Además, en conjunto de un equipo de académicos, explicarán cómo funcionan los modelos computacionales que se han desarrollado inspirados en la neurona, es decir, las redes neuronales, llamadas así porque emulan lo que suceden en el sistema biológico. A este tipo de inteligencia artificial se le conoce como algoritmos bioinspirados.

Rivera indica que tales redes están formadas por un conjunto de neuronas. Cada neurona está programada para realizar una tarea lineal; sin embargo, como sucede con las neuronas humanas, que se conectan mediante las dendritas para pasar información unas con otras y enviar mensajes al cuerpo para realizar diferentes tareas complejas, así ocurre con las neuronas artificiales, que son capaces de intercambiar información, permitiendo el desarrollo de tareas más complejas.

“Hacen operaciones muy complejas en grupo, y entonces podemos encontrar aplicaciones tan difíciles, por ejemplo, procesamiento de video”, comenta Rivera.

La inteligencia artificial es una tecnología que seguirá avanzando pese al rechazo entre los docentes y algunos otros profesionales; no obstante, Rivera afirma que este rechazo viene desde el miedo a ser desplazados.

“Hay que estar bien conscientes que, como humanidad, tenemos que seguir avanzando. Yo creo que tenemos este miedo, que es natural, de sentirnos desplazados y queremos sentir que nuestro trabajo es útil”, agrega Rivera.

Gilberto dice que, como docente, tiene el reto de generar pensamiento crítico, ya que afirma que ahora es muy fácil no confrontar las ideas, sino que se pasan por todas las herramientas que ofrece la IA, lo que impide la creación de nuevo conocimiento y la discusión.

Comenta que muchos usuarios consideran que los resultados que arrojan las herramientas son verdad, lo cual no es correcto. La tecnología puede fallar y es necesario contar con el conocimiento suficiente para discernir si eso que me arroja es correcto o no.

“Hay que desarrollar pensamiento crítico, hay que desarrollar nuevos esquemas, […] no te puedes confiar. Hay que enseñarles a nuestros muchachos a dialogar, a no estar así; como no están conformes con las cuestiones sociales, que tampoco estén conformes con las cuestiones tecnológicas. No, porque me lo diga (la herramienta de IA), es cierto”, afirma en la entrevista.

***

*La Verdad Académica, una sección con contenido patrocinado de La Verdad Juárez que busca acercar el conocimiento académico a nuestra comunidad

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

lo más leído

To Top
Translate »