
JOCELYN GECKER / AP
El informe de lectura ya es cosa del pasado. Los exámenes y ensayos para hacer en casa se están volviendo obsoletos.
El uso de inteligencia artificial por parte de los estudiantes se ha vuelto tan frecuente, dicen los educadores de escuelas secundarias y universidades, que asignar trabajos escritos fuera del aula es como pedirles a los estudiantes que hagan trampa.
“El número de trampas es descomunal. Es lo peor que he visto en toda mi carrera”, afirma Casey Cuny, quien ha enseñado inglés durante 23 años. Los educadores ya no se preguntan si los estudiantes externalizarán las tareas escolares a chatbots de IA. “Todo lo que envíes a casa, debes asumir que está siendo procesado por IA”.
Casey Cuny, profesor de inglés en la escuela secundaria Valencia, trabaja en su computadora mientras se prepara para la clase en Santa Clarita, California, el miércoles 27 de agosto de 2025. (Foto AP/Jae C. Hong)Leer más
3 de 6 |
Timothy Rimke lee durante la clase de inglés de Casey Cuny en la escuela secundaria Valencia en Santa Clarita, California, el miércoles 27 de agosto de 2025. (Foto AP/Jae C. Hong)Leer más
4 de 6 |
Estudiantes esperan afuera del aula de la profesora de inglés Casey Cuny en la escuela secundaria Valencia en Santa Clarita, California, el miércoles 27 de agosto de 2025. (Foto AP/Jae C. Hong)Leer más
5 de 6 |
Una pantalla muestra pautas para el uso de inteligencia artificial sobre un retrato de Ernest Hemingway en la clase de inglés de Casey Cuny en la escuela secundaria Valencia en Santa Clarita, California, el miércoles 27 de agosto de 2025. (Foto AP/Jae C. Hong)Leer más
6 de 6 |
Un estudiante escribe una instrucción en ChatGPT desde una Chromebook durante la clase de inglés de Casey Cuny en la escuela secundaria Valencia en Santa Clarita, California, el miércoles 27 de agosto de 2025. (Foto AP/Jae C. Hong)Leer másPor
La pregunta ahora es cómo pueden adaptarse las escuelas, ya que muchas de las herramientas de enseñanza y evaluación que se han utilizado durante generaciones ya no son eficaces. A medida que la tecnología de IA mejora rápidamente y se integra más en la vida cotidiana, está transformando la forma en que los estudiantes aprenden y estudian, así como la forma en que los docentes enseñan, y está creando nueva confusión sobre qué constituye deshonestidad académica.PUBLICIDAD
“Tenemos que preguntarnos: ¿qué es hacer trampa?”, dice Cuny, ganador del premio al Maestro del Año de California en 2024. “Porque creo que los límites se están difuminando”.Historias relacionadas
Sindicatos de docentes demandan a Trump por arrestos migratorios cerca de escuelas
Los alumnos de Cuny en la preparatoria Valencia, en el sur de California, ahora escriben la mayor parte de la clase. Él supervisa las pantallas de las computadoras portátiles de los alumnos desde su computadora, usando un software que le permite bloquearlas o el acceso a ciertos sitios web. También está integrando IA en sus clases y enseñando a los alumnos cómo usarla como ayuda para el estudio «para que los niños aprendan con IA en lugar de hacer trampa con ella».
En la zona rural de Oregón, la profesora de secundaria Kelly Gibson ha implementado un cambio similar en la escritura en clase. También está incorporando más evaluaciones verbales para que los estudiantes expliquen su comprensión de la lectura asignada.
“Solía dar una consigna de escritura y decir: ‘En dos semanas, quiero un ensayo de cinco párrafos’”, dice Gibson. “Hoy en día, ya no puedo. Es casi como rogarles a los adolescentes que hagan trampa”.
Tomemos, por ejemplo, una tarea típica de inglés en secundaria: escribir un ensayo que explique la relevancia de la clase social en «El Gran Gatsby». Muchos estudiantes dicen que ahora su primer instinto es pedirle ayuda a ChatGPT para una lluvia de ideas. En cuestión de segundos, ChatGPT genera una lista de ideas para ensayos, además de ejemplos y citas que las respaldan. El chatbot termina preguntando si puede hacer algo más: «¿Necesitas ayuda para escribir alguna parte del ensayo? ¡Puedo ayudarte a redactar una introducción o a esbozar un párrafo!».
Los estudiantes no están seguros de cuándo el uso de la IA está fuera de los límites
Los estudiantes dicen que a menudo recurren a la IA con buenas intenciones para tareas como investigación, edición o ayuda con la lectura de textos difíciles . Pero la IA ofrece una tentación sin precedentes, y a veces es difícil saber dónde poner el límite.
Lily Brown, estudiante de segundo año de psicología en una escuela de artes liberales de la Costa Este, recurre a ChatGPT para esquematizar sus ensayos, ya que le cuesta organizarlos ella misma. ChatGPT también la ayudó en una clase de filosofía de primer año, donde las lecturas asignadas «parecían un idioma diferente» hasta que leyó resúmenes de los textos realizados con inteligencia artificial.
A veces me siento mal al usar ChatGPT para resumir la lectura, porque me pregunto: ¿es esto hacer trampa? ¿Ayudarme a hacer esquemas es hacer trampa? Si escribo un ensayo con mis propias palabras y pregunto cómo mejorarlo, o cuando empieza a editarlo, ¿es eso hacer trampa?PUBLICIDAD
El programa de sus clases dice cosas como: «No uses IA para escribir ensayos ni para formar ideas», dice, pero eso deja muchas dudas. Los estudiantes dicen que a menudo evitan pedirles aclaraciones a los profesores porque admitir cualquier uso de IA podría señalarlos como tramposos.
Las escuelas suelen dejar las políticas de IA en manos del profesorado, lo que a menudo implica que las normas varían considerablemente dentro de la misma escuela. Algunos educadores, por ejemplo, aceptan el uso de Grammarly.com, un asistente de escritura con IA, para revisar la gramática. Otros lo prohíben, señalando que la herramienta también permite reescribir oraciones.
“Que se pueda usar IA o no depende de cada aula. Eso puede ser confuso”, dice Jolie Lahey, alumna de 11.º grado de Valencia. Ella atribuye a Cuny el haber enseñado a su clase de inglés de segundo año diversas habilidades de IA, como subir guías de estudio a ChatGPT y que el chatbot les haga preguntas, para luego explicarles los problemas que resolvieron mal.
Pero este año, sus profesores tienen políticas estrictas de «Prohibida la IA». «Es una herramienta muy útil. Y si no nos permiten usarla, simplemente no tiene sentido», dice Lahey. «Parece anticuada».PUBLICIDAD
Las escuelas están introduciendo directrices, gradualmente
Muchas escuelas prohibieron inicialmente el uso de IA tras el lanzamiento de ChatGPT a finales de 2022. Sin embargo, la perspectiva sobre el papel de la inteligencia artificial en la educación ha cambiado drásticamente. El término «alfabetización en IA» se ha convertido en una palabra de moda durante la vuelta al cole, con el foco puesto en cómo equilibrar las fortalezas de la IA con sus riesgos y desafíos.
Durante el verano, varias universidades convocaron a sus grupos de trabajo sobre inteligencia artificial para redactar directrices más detalladas o proporcionar nuevas instrucciones al personal docente.
La Universidad de California, Berkeley envió por correo electrónico a todo el profesorado una nueva guía sobre IA que les indica que incluyan una declaración clara en su programa de estudios sobre las expectativas del curso en relación con el uso de IA. La guía ofrece tres ejemplos de declaraciones para el programa de estudios: para cursos que requieren IA, prohíben la IA dentro y fuera de clase, o permiten cierto uso de IA.PUBLICIDAD
“En ausencia de tal declaración, los estudiantes podrían ser más propensos a usar estas tecnologías de manera inapropiada”, decía el correo electrónico, enfatizando que la IA está “creando nueva confusión sobre lo que podrían constituir métodos legítimos para completar el trabajo estudiantil”.
La Universidad Carnegie Mellon ha visto un gran aumento en las violaciones de responsabilidad académica debido a la IA, pero a menudo los estudiantes no son conscientes de que han hecho algo malo, dice Rebekah Fitzsimmons, presidenta del comité asesor de la facultad de IA en el Heinz College of Information Systems and Public Policy de la universidad.
Por ejemplo, un estudiante que está aprendiendo inglés escribió una tarea en su lengua materna y usó DeepL, una herramienta de traducción con inteligencia artificial, para traducir su trabajo al inglés. Sin embargo, no se dio cuenta de que la plataforma también alteró su idioma, lo cual fue detectado por un detector de inteligencia artificial.
La aplicación de las políticas de integridad académica se ha vuelto más compleja, ya que el uso de la IA es difícil de detectar y aún más difícil de probar, afirmó Fitzsimmons. El profesorado tiene flexibilidad cuando cree que un estudiante ha traspasado involuntariamente los límites, pero ahora duda más en señalar las infracciones porque no quiere acusar injustamente a los estudiantes. A los estudiantes les preocupa que, si son acusados falsamente, no haya forma de demostrar su inocencia.
Durante el verano, Fitzsimmons ayudó a redactar nuevas directrices detalladas para estudiantes y profesorado, con el objetivo de brindar mayor claridad. Se ha informado al profesorado que una prohibición total de la IA «no es una política viable» a menos que los instructores modifiquen su forma de enseñar y evaluar a los estudiantes. Muchos profesores están eliminando los exámenes para llevar a casa. Algunos han vuelto a los exámenes con lápiz y papel en clase, comentó, y otros han optado por «clases invertidas», donde las tareas se realizan en clase.
Emily DeJeu, que enseña cursos de comunicación en la escuela de negocios de Carnegie Mellon, ha eliminado las tareas escritas como tareas para casa y las ha reemplazado por exámenes en clase realizados en computadoras portátiles en un «navegador bloqueado» que impide que los estudiantes abandonen la pantalla del examen.
“Esperar que un joven de 18 años tenga una gran disciplina es irrazonable”, dijo DeJeu. “Por eso es responsabilidad de los instructores poner límites”.
Fuente: https://apnews.com/article/ai-cheating-school-chatgpt-4f89a552e9093ce2180471b4d4736675