Jueves, 26 Junio 2025
current
min
max

UNAM ALERTA SOBRE LOS POSIBLES RIESGOS DE USAR LA INTELIGENCIA ARTIFICIAL

 

 

  • La UNAM realizó un foro para analizar el impacto y los usos de la herramienta para estudiar y la investigación científica

 

Ciudad de México, 16 de junio de 2025.- (aguzados.com).- El uso de la Inteligencia Artificial se ha intensificado en los últimos dos años, pues ya no solo se utiliza para crear imágenes complejas o programas digitales complejos, sino que se ha convertido en una herramienta para resolver dudas rápidas.

Por ello, académicos del Instituto de Fisiología Celular (IFC) de la Universidad Nacional Autónoma de México (UNAM) analizaron las oportunidades y limitaciones de herramientas como ChatGPT en entornos académicos y científicos.

En un foro, Carlos Peralta Álvarez expuso con detalle los impactos y desafíos de los llamados modelos de lenguaje generativo, señalando que la relevancia del tema radica no solo en la popularización de tales herramientas, sino también en la manera en que se están normalizando su uso.

Augusto Poot Hernández, coordinador del evento, platicó que en el último semestre notó un aumento significativo en la cantidad de estudiantes que comenzaban sus argumentos con la frase “me lo dijo ChatGPT” o “hice lo que me dijo Chat’”, y normalmente estas frases iban seguidas de un “No funcionó”.

chava

Opinó que este escenario, que se repite desde niveles básicos hasta posgrados, plantea preguntas clave sobre la capacidad de las instituciones para educar en el uso ético y crítico de estas tecnologías.

Durante la charla, Peralta explicó los principios detrás del funcionamiento de modelos grandes de lenguaje, como ChatGPT, detallando que estas herramientas no comprenden el lenguaje humano en términos reales.

“Operan mediante predicciones estadísticas de palabras a partir del contexto, lo que permite generar texto que parece coherente, real y consciente, pero nada de eso es cierto”, precisó.

Calificó como engañoso el uso de términos como “inteligencia artificial”, aclarando que estas plataformas no cumplen el criterio para ser consideradas como tales.

Según su análisis, estos modelos están entrenados con una enorme cantidad de datos cuyas fuentes van desde artículos académicos hasta fragmentos de conversaciones en redes sociales, ya que aún carecen de la capacidad de entender el conocimiento que procesan.

Frente a la percepción de que estos sistemas podrían reemplazar profesiones amplió el debate hacia el ámbito de la práctica médica, Peralta comentó que “parte del quehacer médico incluye aspectos humanos y sociales que no se pueden reemplazar”, por lo que descartó que la herramienta vaya a sustituir a los médicos.

Sin embargo, reconoció que, en tareas específicas, como asistir en el diagnóstico o compilar información vinculada a la medicina basada en evidencias, los chatbots podrían tener un rol complementario en un futuro cercano.

Asimismo, enfatizó que uno de los puntos críticos es el fenómeno de las denominadas “alucinaciones” generadas por estas plataformas, que ocurren cuando producen respuestas aparentemente correctas pero que realmente son falsas, incluso las que muestran los modelos más avanzados.

chava2

“ChatGPT propaga algunos prejuicios porque nosotros como humanidad fuimos tan racistas que propusimos eso por escrito”, reafirmó destacando la responsabilidad humana en el contenido generativo.

Durante el seminario, se ofrecieron recomendaciones específicas para mitigar los problemas inherentes al uso de estas tecnologías. Entre ellas, los especialistas sugirieron emplear prompts detallados al interactuar con los chatbots, formular preguntas complejas preferentemente en inglés cuando se busca información académica y verificar toda salida generada.

De igual forma, resaltaron funciones de búsqueda integradas ofrecidas por herramientas como Perplexity y ChatGPT Plus, que aumentan la precisión de respuestas, aunque implican costos de suscripción.

Otra solución discutida fue la implementación de sistemas conocidos como RAG, que combinan modelos generativos con bases de datos locales y personalizadas, ya que este enfoque permitiría trabajar con “respuestas casi tan buenas como las de los modelos comerciales, pero con mi información segura y en mi máquina local”.

Estos sistemas, indicó, abrirían el camino para crear asistentes que respondan exclusivamente con información contenida en documentos específicos seleccionados por los investigadores.

La conclusión, según Peralta, es que, aunque las herramientas de lenguaje generativo ofrecen un potencial significativo, su uso requiere supervisión estricta y un enfoque crítico.

 

logo

Contrata este espacio