Síganos en nuestras redes
Políticas de uso de herramientas de Inteligencia Artificial (IA)
Las siguientes políticas para el uso de herramientas de IA se basan en las recomendaciones del Committee on Publication Ethics (COPE) y las mejores prácticas en la publicación científico-académica.
1. Las herramientas de IA no pueden ser consideradas autoras o coautoras por cuanto no pueden asumir responsabilidad por el contenido producido, no pueden tomar decisiones éticas, no pueden indicar la presencia o ausencia de conflictos de interés, ni pueden gestionar derechos de autor o acuerdos de licencia.
2. Responsabilidad del autor
Los autores son responsables de la originalidad de todo el contenido generado o asistido por herramientas de la IA.
Los autores deben revisar y verificar el contenido generado mediante herramientas de IA para evitar errores, sesgos o imprecisiones; también deben revisar que este contenido no corresponda a plagio, fabricación o falsificación de datos, ni que infrinja los derechos de autor.
Adicionalmente, el autor debe verificar la precisión de las citas y referencias que se incluyen en el contenido generado por herramientas de IA.
No se permiten artículos en los que previamente se hayan aplicado herramientas de la IA para la revisión de su ortografía o redacción, lo anterior por cuanto al revisar la originalidad del trabajo, la mayor parte o la totalidad de su contenido sería identificado como generado por estas herramientas. Adicionalmente, el contenido del manuscrito e instrucciones para su tratamiento en estas herramientas de IA pueden convertirse en datos de entrenamiento de dichas herramientas, los cuales se retienen y pueden emplearse para generar nuevas respuestas en el futuro, lo que conlleva el riesgo de generar plagio involuntario por parte de las personas que empleen herramientas de IA, así como afectar la confidencialidad de la información y el proceso de revisión del artículo.
3. Declaración del uso de herramientas de IA
Los autores deben declarar explícitamente el uso de herramientas de la IA en el desarrollo de sus trabajos:
a. Ejemplo de citación*
Cuando se le pregunta: “¿La división del cerebro izquierdo del cerebro derecho es real o una metáfora?”, el texto generado por ChatGPT indicó que, aunque los dos hemisferios cerebrales están algo especializados, “la notación de que las personas pueden caracterizarse como ‘de cerebro izquierdo’ o ‘de cerebro derecho’ se considera una simplificación excesiva y un mito popular” (OpenAI, 2023).
En el ejemplo anterior, la instrucción (prompt) corresponde a la pregunta hecha al ChatGPT.
b. Formato de citas en el texto*
c. Modelo de referencia de herramientas de IA de acuerdo al formato APA*
OpenAI. (2023). ChatGPT (Mar 14 version) [Large language model].
https://chat.openai.com/chat (https://chat.openai.com/chat)
La estructura de la referencia de una herramienta de IA de acuerdo al formato APA es la siguiente:
https://chat.openai.com/chat (https://chat.openai.com/chat)
*NOTA: este ejemplo es un modelo para citar y elaborar referencias, de acuerdo al formato APA, de herramientas de IA tales como DALL·E 3, Perplexity AI, CANVA AI entre otras.
Fuente:
McAdoo, T. (2023, 7 de abril). How to cite ChatGPT. APA Style.
https://apastyle.apa.org/blog/how-to-cite-chatgpt
4. Uso apropiado y ético de las herramientas de la IA
El uso de las herramientas de la IA no debe comprometer la ética, evitando la manipulación de datos, el plagio o infringir la propiedad intelectual.
5. Declaración del uso de herramientas de la IA por parte de los equipos editoriales y revisores
El equipo editorial puede emplear herramientas de la IA para tareas de edición (por ejemplo, detección de plagio) y administrativas, las cuales se pueden realizar con una supervisión humana estricta.
Los revisores no podrán emplear herramientas de la IA. El uso de instrumentos de IA en la revisión de manuscritos compromete la confidencialidad del proceso y afectando los derechos de autoría: la información de los artículos, así como las instrucciones para su procesamiento, pueden convertirse en datos de entrenamiento de dichas herramientas, los cuales se retienen y pueden emplearse para generar nuevas respuestas en el futuro, lo que conlleva el riesgo de generar plagio involuntario por parte de las personas que empleen herramientas de IA.
6. Consecuencias sobre el incumplimiento de las políticas editoriales sobre el uso de herramientas de IA
El incumplimiento de las políticas editoriales sobre el uso de herramientas de IA conlleva a sanciones como el retiro del trabajo enviado.
7. Actualización de las políticas editoriales sobre el uso de herramientas de la IA
Las políticas editoriales serán revisadas en forma periódica para actualizarlas y adaptarlas a los cambios tecnológicos en las herramientas de la IA y mejores prácticas en la publicación científica, contribuyendo a mantener su pertinencia y relevancia.
Revista Fidélitas es publicada bajo una licencia de Creative Commons - 4.0 Internacional.