Guardar actividad en Google Calendar Imprimir
ChatGPT no es tan amigo como tú te crees

Granada
26/09/2025 00:00
En esta actividad exploraremos el funcionamiento real de modelos como ChatGPT, desmontando la idea de que “entienden” o “piensan” como los humanos. A través de ejemplos y reflexiones, mostraremos que estas herramientas no tienen conciencia ni comprensión, sino que están diseñadas para generar respuestas basadas en patrones estadísticos. 🔍
Objetivos principales: Comprender cómo funcionan los modelos de lenguaje generativo. Reflexionar sobre los sesgos que pueden contener y cómo se introducen. Analizar la fiabilidad de la información que ofrecen. Fomentar un uso crítico y responsable de estas tecnologías. ⚠️ Porque aunque pueden ser útiles, no debemos olvidar que no son personas, no tienen intenciones, y no siempre aciertan.
Grupo/Departamento de investigación:
Departamento de Ciencias de la Computación e Inteligencia Artificial
Participan:
- Oscar Huertas Rosales
- Juan José Herrera Aranda
- Mario García Márquez
Valor que aporta la investigación:
Esta actividad aporta un valor significativo a la investigación científica en varios niveles: Fomento del pensamiento crítico en IA Al desmitificar el funcionamiento de modelos como ChatGPT, se promueve una comprensión más rigurosa y realista de la inteligencia artificial, alejándose de narrativas antropomórficas o sensacionalistas. Conciencia sobre sesgos algorítmicos La actividad permite identificar y discutir los sesgos inherentes en los modelos de lenguaje, lo cual es crucial para el desarrollo de sistemas más justos, transparentes y éticos. Evaluación de la fiabilidad de las fuentes generadas por IA Se analiza la calidad y veracidad de la información generada por modelos generativos, lo que contribuye a mejorar las metodologías de validación y uso responsable en contextos científicos. Interdisciplinariedad Invita a la colaboración entre disciplinas como la informática, la filosofía, la lingüística y la sociología, enriqueciendo el debate sobre los límites y posibilidades de la IA. Formación de investigadores responsables Al sensibilizar sobre los riesgos y limitaciones de estas tecnologías, se contribuye a formar una comunidad investigadora más crítica, ética y preparada para enfrentar los desafíos de la IA en la sociedad.