La pluma digital frente al desafío editorial: ¿Una alianza transformadora o una amenaza a la integridad científica?
DOI:
https://doi.org/10.18004/anales/2025.058.02.101Palabras clave:
Inteligencia artificial, Publicación científica, Ética profesional, Bibliometría, Redacción científicaResumen
La incorporación de herramientas de inteligencia artificial (IA) en los procesos de escritura y publicación científica representa un cambio paradigmático que está transformando la forma en que los investigadores generan y comunican conocimiento. Este artículo analiza el impacto de la IA generativa en la investigación y la labor editorial, explorando tanto sus beneficios como sus desafíos éticos. Entre los beneficios destacan la agilización de búsquedas bibliográficas, la optimización de la redacción multilenguaje y la liberación de tiempo para que los investigadores y editores se concentren en el juicio crítico y la creatividad. No obstante, surgen riesgos significativos, como el AIgiarism y la amplificación de sesgos, que requieren vigilancia y supervisión humana constante. Se enfatiza la necesidad de políticas claras, formación ética y metodológica, y un uso consciente de la IA que ayude, en lugar de reemplazar, la voz científica humana. Este trabajo concluye que, cuando se integra responsablemente, la “pluma digital” puede ser una aliada poderosa, acelerando la ciencia sin comprometer la integridad ni la pasión que caracterizan a la investigación.
Referencias
1. Khalifa M, Albadawy M. Using artificial intelligence in academic writing and research: An essential productivity tool. Computer Methods and Programs in Biomedicine Update. 2024; 5:100145. https://doi.org/10.1016/j.cmpbup.2024.100145
2. Farhat F, Silva ES, Hassani H, Madsen DØ, Sohail SS, Himeur Y, et al. The scholarly footprint of ChatGPT: a bibliometric analysis of the early outbreak phase. Front Artif Intell. 2024; 6:1270749. doi:10.3389/frai.2023.1270749.
3. Kim SJ. Trends in research on ChatGPT and adoption-related issues discussed in articles: a narrative review. Sci Ed. 2024; 11(1):3-11. https://doi.org/10.7910/dvn/lmptqh
4. Ioannidis JPA, Maniadis Z. In defense of quantitative metrics in researcher assessments. PLoS Biol. 2023; 21(12):e3002408. doi:10.1371/journal.pbio.3002408.
5. Tang BL. The underappreciated wrong of AIgiarism: bypass plagiarism that risks propagation of erroneous and biased content. EXCLI J. 2023; 22:907-910. doi:10.17179/excli2023-6435.
6. Kar SK, Bansal T, Modi S, Singh A. How Sensitive Are the Free AI-detector Tools in Detecting AI-generated Texts? A Comparison of Popular AI-detector Tools. Indian J Psychol Med. 2025 ; 47(3):275-278. doi: 10.1177/02537176241247934.
7. Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature. 2023; 613(7945):620-621. doi:10.1038/d41586-023-00107-z
8. Barrios I. Inteligencia artificial y redacción científica: aspectos éticos en el uso de las nuevas tecnologías. Med Clin Soc. 2023;7(2):46-47. Disponible en: https://dialnet.unirioja.es/descarga/articulo/8943913.pdf
9. Elsevier. Use of AI-assisted language models in scientific writing: guidance for authors. Elsevier; 2023. Disponible en: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier?utm_source=chatgpt.com
10. Li ZQ, Xu HL, Cao HJ, Liu ZL, Fei YT, Liu JP, et al. Use of Artificial Intelligence in Peer Review Among Top 100 Medical Journals. JAMA Netw Open. 2024; 7(12):e2448609. doi:10.1001/jamanetworkopen.2024.48609. PMID: 39625725; PMCID: PMC11615706.
11. Hosseini M, Horbach SPJM. Fighting reviewer fatigue or amplifying bias? Considerations and recommendations for use of ChatGPT and other large language models in scholarly peer review. Res Integr Peer Rev. 2023; 8(1):4. doi: 10.1186/s41073-023-00133-5.



