Un profesor de filosofía de la universidad de Carolina del Sur advierte que deberíamos esperar una gran cantidad de trampas con ChatGPT, un chatbot de OpenAI que funciona con inteligencia artificial, después de atrapar a uno de sus estudiantes usándolo para generar un ensayo.
Darren Hick, profesor de filosofía en la Universidad de Furman en Greenville, Carolina del Sur, escribió una larga publicación en Facebook este mes detallando problemas con el chatbot avanzado y el ‘primer plagiario’ que había atrapado para una tarea reciente de escribir 500 palabras sobre Hume y el paradoja del horror.
ChatGPT, que ha sido entrenado en una muestra gigantesca de texto de Internet, puede comprender el lenguaje humano, mantener conversaciones con humanos y generar texto detallado que muchos han dicho que es parecido a un humano y bastante impresionante.
«ChatGPT responde en segundos con una respuesta que parece haber sido escrita por un ser humano; además, un ser humano con un buen sentido de la gramática y una comprensión de cómo se deben estructurar los ensayos», escribió Hicks.
Darren Hick, profesor de filosofía en la Universidad de Furman en Greenville, Carolina del Sur, escribió una larga publicación en Facebook este mes detallando los problemas con el chatbot avanzado y el «primer plagiario» que había atrapado para una tarea reciente.
«El primer indicador de que estaba tratando con IA es que, a pesar de la coherencia sintáctica del ensayo, no tenía sentido».
Hicks notó una serie de otras señales de alerta.
«Dijo algunas cosas verdaderas sobre Hume, y sabía cuál era la paradoja del horror, pero después de eso solo fue una tontería». el escribio. «ChatGPT también apesta citando, otra bandera».
Hicked explicó que para las clases introductorias, la IA sería un ‘cambio de juego’.
«Aunque cada vez que solicita ChatGPT, dará al menos una respuesta ligeramente diferente, he notado algunas consistencias en la forma en que estructura los ensayos», escribió. ‘En el futuro, eso será suficiente para levantar más banderas para mí. Pero, de nuevo, ChatGPT aún está aprendiendo, por lo que es posible que mejore”.
«Esperen una inundación, gente, no un goteo», advirtió Hick. “Espero instituir una política que establezca que si creo que el material enviado por un estudiante fue producido por AI, lo tiraré y le daré al estudiante un examen oral improvisado sobre el mismo material. Hasta que mi escuela desarrolle algún estándar para lidiar con este tipo de cosas, es el único camino que se me ocurre.’
Varios maestros y profesores han advertido sobre las capacidades de los chatbots de IA en las últimas semanas.
Kevin Bryan, profesor asociado de administración estratégica en la Universidad de Toronto que dirigió un programa de emprendimiento basado en IA y sigue de cerca la industria, dijo que estaba «sorprendido» por las capacidades de ChatGPT después de probarlo haciendo que la IA escribiera numerosos exámenes. respuestas
«Ya no puedes dar exámenes/tareas para llevar a casa», dijo Bryan al comienzo de un hilo de Twitter que detalla las habilidades de la IA.
«Aunque cada vez que solicita ChatGPT, dará al menos una respuesta ligeramente diferente, he notado algunas consistencias en la forma en que estructura los ensayos», escribió Hick. ‘En el futuro, eso será suficiente para levantar más banderas para mí. Pero, de nuevo, ChatGPT aún está aprendiendo, por lo que es posible que mejore’
Sin embargo, no todos están listos para celebrar un funeral por los ensayos de los estudiantes.
En Plagiarism Today, Jonathan Bailey afirmó que el ensayo universitario, cuya popularidad ha ido disminuyendo durante años, de hecho no está muerto.
‘A pesar de los desafíos, todavía hay momentos en que un ensayo es una herramienta de evaluación adecuada. Incluso si deja de ser el estándar predeterminado o el estándar de oro, es probable que el ensayo siga siendo una herramienta que usan los instructores para evaluar la comprensión del material por parte de los estudiantes,’ Bailey escribió.
‘AI no será la muerte del ensayo, pero puede cambiarlo. Puede cambiar las indicaciones que se utilizan, las cuentas por cobrar que deben calificarse y el enfoque general del concepto.’
Por su parte, OpenAI emitió un comunicado: «El formato de diálogo hace posible que ChatGPT responda preguntas de seguimiento, admita sus errores, cuestione premisas incorrectas y rechace solicitudes inapropiadas».
Si te ha gustado esta historia, te puede gustar…
Nueva ley de California PROHIBE el Tesla de Elon Musk de anunciar sus vehículos como ‘plena conducción autónoma’
El negocio del iPhone de Apple se enfrenta al ‘momento definitorio‘ mientras el brote de Covid en China amenaza el caos en la cadena de suministro en los próximos meses
FCC podría golpear a la firma de llamadas automáticas que realizó más de 5 mil millones de llamadas fraudulentas en tres meses con $300 millones de multa