ChatGPT ha conseguido escribir artículos científicos que podrían publicarse fácilmente en una revista profesional. ¿Esto convierte al chatbot en una amenaza o en una oportunidad para la ciencia?
Algunos grandes editores de revistas científicas han prohibido a sus autores utilizar ChatGPT. Temen que, como consecuencia de ello, entren en la literatura académica textos inexactos o plagiados. El redactor jefe de Science, una de las principales revistas científicas del mundo, ha llegado a prohibir el uso de ChatGPT en los artículos presentados. Pero no todo el mundo piensa así. Varios investigadores ya han incluido al chatbot avanzado como coautor en sus estudios.
Digno de publicación
Esto no es sorprendente, ya que una nueva investigación muestra que ChatGPT ya funciona lo suficientemente bien como para escribir un artículo sobre investigación financiera aceptado por una revista académica, en este caso Finance Research Letters. Los investigadores admiten que el bot funcionó mejor en algunas áreas que en otras, pero entonces la propia experiencia de los científicos pudo superar las limitaciones del programa de chat, según constataron también los revisores de la revista.
Los investigadores sostienen, por tanto, que los editores y científicos no deben ver necesariamente ChatGPT como una amenaza, sino más bien como una importante herramienta de investigación, pensar en ella como un asistente electrónico de bajo coste. “Nuestro pensamiento fue: si es tan fácil obtener buenos resultados de ChatGPT simplemente usándolo, entonces tal vez podamos hacer algo extra para convertir estos buenos resultados en grandes”, explican los investigadores el motivo de su investigación.
¿Qué es ChatGPT?
La inteligencia artificial, desarrollada por la empresa OpenAI, puede generar sus propios textos a partir de la información introducida. El chatbot dialoga con el usuario para responder adecuadamente a sus preguntas y llegar a los textos adecuados, siempre únicos y bien redactados. Las posibilidades son infinitas: ChatGPT puede escribir un reportaje de noticias, decirte cómo hacer pan, explicarte la física cuántica y hacerte la redacción. Es prácticamente imposible averiguar si un texto ha sido escrito por ChatGPT.
Un poco de ayuda
“Primero pedimos a ChatGPT que generara las cuatro partes estándar de una investigación: la idea de investigación, la revisión bibliográfica, el conjunto de datos y las sugerencias para las pruebas y la investigación. Solo especificamos el tema y estipulamos que el resultado debía ser lo suficientemente bueno como para publicarlo en una buena revista de ciencias financieras”, prosigue. “Esta fue la primera versión de cómo utilizamos ChatGPT. Para la versión dos, copiamos en el chatbot unos doscientos resúmenes de estudios relevantes ya existentes. A continuación, especificamos que el programa debía incluirlas al desarrollar las cuatro fases de investigación. En la tercera versión añadimos la “experiencia en el sector”, es decir, la aportación de investigadores académicos. Para ello, leímos las respuestas generadas por el programa informático y propusimos mejoras. Al hacerlo, integramos nuestra experiencia con la de ChatGPT”.
IA creativa
A continuación, los investigadores pidieron a 32 revisores que calificaran una de las versiones que ChatGPT había creado. Debían indicar si el estudio era comprensible y correcto y si la contribución era lo suficientemente innovadora como para ser publicada en una revista financiera.
Tanto los investigadores como los revisores quedaron impresionados: todos los textos merecían ser publicados. Así que ChatGPT ya es capaz de desarrollar diseños de investigación académica lo suficientemente buenos. Esto no solo plantea la cuestión de si la inteligencia artificial puede hacer escritura sencilla, sino también si la creatividad y la propiedad de las ideas siguen teniendo tanto significado, argumentan los investigadores.
No es bueno en todo
El estudio también reveló los puntos fuertes y débiles de ChatGPT: algunos componentes de la investigación fueron mejor valorados que otros. La idea de la investigación y el conjunto de datos resultaron ser muy buenos. Las reseñas bibliográficas y las sugerencias de investigación recibieron puntuaciones más bajas, aunque aceptables. “Nuestra sospecha es que ChatGPT es especialmente bueno conectando un conjunto de textos externos (la esencia de una idea de investigación) o seleccionando partes de un texto fácilmente identificable para adaptarlas, como el resumen de los datos. Se trata de un texto fácilmente identificable”, explican los científicos.
Un punto débil del chatbot es el procesamiento de tareas más complejas, si hay demasiadas etapas en el proceso de investigación, por ejemplo. La revisión de la literatura y las pruebas entran en esta categoría. ChatGPT es bueno en algunas fases, pero no en todas, y esto fue recogido por los revisores. “Sin embargo, pudimos superar estas limitaciones en la versión tres, en la que trabajamos con ChatGPT para lograr resultados aceptables. Después de eso, todas las partes del estudio fueron valoradas muy positivamente por los revisores. Así que los investigadores académicos aún no se han vuelto completamente inútiles”, suena.
Cuestiones éticas
Con la avalancha de noticias falsas, plagios e investigaciones deficientes, la integridad del científico está cada vez más bajo presión. El ChatGPT puede agravar este problema, pero no tiene por qué, subrayan los investigadores. “Dado que la versión en la que el investigador colabora con ChatGPT da los mejores resultados, demostramos que la aportación de los académicos sigue siendo vital para una buena investigación.
Por eso creemos que ChatGPT debe considerarse una herramienta, no una amenaza. En particular, puede ser una bendición para los investigadores que carecen de recursos económicos para contratar asistentes de investigación. ChatGPT puede desempeñar potencialmente ese papel”.
Por lo tanto, prohibir directamente ChatGPT no es una buena idea. El robot no hará más que mejorar y podría ser realmente útil para la ciencia.
Sin comentarios