CLAVES | Educadores alertan sobre riesgos y potencialidades del ChatGPT - Runrun
CLAVES | Educadores alertan sobre riesgos y potencialidades del ChatGPT
Los algoritmos del ChatGPT están diseñados y son capaces de entender y responder a los cuestionamientos o solicitudes que le hacen las personas
Chat GPT es una herramienta tecnológica muy fascinante, cuando se trata de utilizarlo en la universidad puede resultar un arma de doble filo, pues si el bot hace la tarea del estudiante, este no está aprendiendo lo que debería

 

@yeannalyfermin

 

Con cada día que pasa, la inteligencia artificial (IA) toma más fuerza y se apodera de espacios y tareas que solo eran realizadas por humanos. El pasado 30 de noviembre de 2022, la empresa OpenAI, fundada por el empresario, inversor y magnate, Elon Musk, hizo público el ChatGPT, un sistema de IA diseñado para mantener conversaciones mediante un chat escrito.

Según refiere la página principal del ChatGPT, este es un sistema de chat basado en el modelo del lenguaje por IA GPT-3 con más de 175 millones de parámetros entrenados y diseñados para realizar actividades relacionadas con el lenguaje, que van desde la traducción hasta la creación de textos de cualquier naturaleza. 

Los algoritmos del ChatGPT están diseñados y son capaces de entender y responder a los cuestionamientos o solicitudes que le hacen las personas.

El principal atractivo de este chatbot es que es capaz de ofrecer respuestas muy precisas y completas de cualquier tema, bien sea sobre política, economía, educación, música, tecnología, entretenimiento, cultura. Sin embargo, un problema se presenta en escuelas y universidades, y es que con la precisión de las respuestas que ofrece, resulta difícil distinguir si el texto fue creado por el estudiante o por inteligencia artificial.

Fraude académico o plagio

Para evaluar los riesgos y potencialidades del uso del ChatGPT en las universidades, el profesor y director de la Escuela de Educación de la Universidad Católica Andrés Bello (ucab), Carlos Calatrava, apuntó que hay que tener en consideración que una cosa es plagio de información y otra es el fraude académico. 

Calatrava ejemplifica la situación con un caso que ocurrió en los Estados Unidos en donde se le pidió a un estudiante que hiciera un ensayo con ciertas características. El estudiante hizo la solicitud al bot y este le formuló la actividad, tal y como se lo habían indicado y lo hizo pasar como un texto propio. 

“Evidentemente ,esto no califica como plagio en las universidades porque para las casas de estudio superior el plagio es tomar información de otros autores y publicarlos como suyos”, afirmó el profesor. 

Sin embargo, Calatrava aclaró que este bot de inteligencia artificial no solo se está empleando con “fines más allá de entretenimiento y de distracción”, sino también para proponer algo asociado al fraude académico.

El profesor universitario Leonardo Guerra, coincide con Calatrava en que si bien es Chat GPT es una herramienta tecnológica muy fascinante, cuando se trata de utilizarlo en la universidad puede resultar un arma de doble filo, pues si el bot hace la tarea del estudiante, este no está aprendiendo lo que debería. 

“El Chat GPT puede hasta elaborar una tesis de grado, discursos académicos, utilizando toda la información que hay en la web en tan solo minutos. Eso, sin duda, es un fraude académico, porque no fue realizado por el estudiante”, dijo Guerra. 

Benéfico o perjudicial

A juicio del director de la Escuela de Educación de la Ucab, el Chat GPT son dos caras de una misma moneda. Afirma que es perjudicial cuando los estudiantes lo utilizan para presentar un análisis como propio.

“Si alguien hace un fraude académico mientras está estudiando, es muy probable que también lo haga en su campo laboral y en el lugar de trabajo, además de que el uso continuado de estos dispositivos de inteligencia artificial puede repercutir en la toma de decisiones y en la suplantación de identidad”. 

Otro punto negativo del Chat GPT, y es uno de los que más preocupa al profesor de historia, Leonardo Guerra, es que no hay hasta ahora un marco regulatorio o legal en ningún país del mundo para el buen manejo de estas tecnologías. 

Carlos Calatrava señala que con el ChatGPT se puede resolver un problema o una tarea momentánea, pero que en realidad no genera un cambio radical, que es el objetivo que se quiere con el aprendizaje. 

Sostiene que la otra cara de la moneda, o lo positivo del ChatGPT, es que esta herramienta de apoyo, bien canalizada y bien guiada, puede ser muy buena para encontrar diversas manera de resolver un problema, o de buscar ideas alternas para realizar cualquier trabajo. 

El papel de la universidad 

Según reseña el portal web The Guardian, las principales universidades en Australia han optado por centrar su metodología de evaluación utilizando solo lápiz y papel, mientras que en Nueva York, se ha prohibido el uso del ChatGPT en las escuelas. 

The Guardian también refiere que el Departamento de Educación en Cataluña, España, informó que no van a prohibir el uso del bot «ya que sería una medida poco efectiva».

Carlos Calatrava afirmó que falta mucho para que estas tecnologías se maximicen en Venezuela, pero afirmó que en la Ucab ya se han generado conversaciones con respecto al tema.  

“Aquí en la universidad en lo que se supo la noticia de la llegada del ChatGPT se comenzó a hablar e instruir a los profesores, sobre el tema. En este momento el planteamiento es tener a esta tecnología en atención, es prevenirlo”. 

Calatrava enfatizó que no se debe olvidar el momento en el que está Venezuela con respecto al uso de las tecnologías en otros países del mundo. 

“Nosotros tenemos unos años de atraso en el manejo de las computadoras y dispositivos, y muchas aplicaciones de inteligencia artificial no están corriendo en Venezuela de manera masiva, solo a través de VPN se puede lograr y no todos lo manejan por lo que nos dará el tiempo necesario para prepararnos y sacarle el jugo a la herramienta de una manera positiva”, dijo. 

Debido al revuelo que ha causado el uso del ChatGPT, la empresa OpenAI informó este martes que ya lanzó una herramienta que puede determinar si un texto ha sido escrito por un humano o por inteligencia artificial. 

«En nuestras evaluaciones sobre un ‘conjunto de desafíos’ de textos en inglés, nuestro clasificador identifica correctamente el 26 % de los textos escritos por inteligencia artificial como ‘probablemente escrito por inteligencia artificial’, mientras que etiqueta incorrectamente un 9 % de los texto escritos por humanos como si fueran producto de la inteligencia artificial», detalló la empresa mediante un comunicado. 

OpenAI aclaró que esta herramienta solo funcionará para textos en inglés y mejorará a medida que aumente la longitud del escrito que se analice. 

«Reconocemos que identificar el texto escrito por IA ha sido un punto importante de discusión entre los educadores y que es importante reconocer los límites y los impactos de los clasificadores de texto generados por IA en el aula», apunta el comunicado.