Toggle menu

Google versus other text similarity tools in detection of plagiarism: a pilot study in the Journal of Clinical and Diagnostic Research

Issue: 42(4) November 2016. Original articles Pages 87 – 90

Hemant Jain
Journal of Clinical and Diagnostic Research, Delhi, India; drhemantjain@jcdr.net

Sunanda Das
Journal of Clinical and Diagnostic Research, Delhi, India; drsunandadas24@gmail.com

Aarti Garg
Journal of Clinical and Diagnostic Research, Delhi, India; artigarg7@gmail.com

Abstract

Background: We practised using plagiarism detection software in the Journal of Clinical and Diagnostic Research, but after a few significant items were missed, we re-assessed our strategy and compared Google with three other text similarity programmes.
Method: 25 manuscripts (16 original articles and 9 case reports) were randomly selected, where the decision to publish had been greatly affected by plagiarism. These manuscripts were checked for plagiarism, searching each sentence using Google. The same manuscripts were run through three text similarity software programmes (iThenticate, Viper, and Plagiarism Checker X). For original research, we considered methodology, results, and discussion; and for case reports, we considered case details and discussion. Each report was checked by the investigators for scoring in addition to the percentage of plagiarism reported in the software.
Results: When checking original articles, Google performed the best, iThenticate missed a few minor sections, and Plagiarism Checker X had a lower number of hits, followed by Viper. On analysing the case reports, Google and iThenticate were found to be similar. Plagiarism Checker X missed minor sections, and Viper missed significant parts and was therefore considered less reliable.
Conclusions: Based on the study results, we suggest using two software programmes and manual verification of the manuscript

Abstract (Spanish)

Google frente a otras herramientas de texto similares en la detección de plagio: un estudio piloto en el Journal of Clinical and Diagnostic Research

Antecedentes: Utilizamos el software de detección de plagio en el Journal of Clinical and Diagnostic Research, pero después de que algunos puntos importantes se perdieron, reevaluamos nuestra estrategia y comparamos Google con otros tres programas de texto similares.
Método: Se seleccionaron de manera aleatoria 25 manuscritos (16 artículos originales y 9 informes de caso), donde la decisión de publicar se había visto muy afectada por el plagio. Estos manuscritos fueron revisados por plagio, buscando cada oración usando Google. Los mismos manuscritos se corrieron en tres programas de software de texto similares (iThenticate, Viper y Plagiarism Checker X). Para la investigación original, se consideró la metodología, los resultados y la discusión; y para los informes de caso, se consideraron los detalles del caso y la discusión. Cada informe fue verificado por los investigadores para la puntuación, además del porcentaje de plagio informado en el software.
Resultados: Al revisar los artículos originales, Google realizó la mejor revisión, iThenticate perdió algunas secciones menores, y Plagiarism Checker X tuvo un menor número de aciertos, seguido de Viper. Al analizar los informes de casos, Google e iThenticate fueron similares. Plagiarism Checker X perdió secciones menores, y Viper perdió partes significativas y por lo tanto se consideró menos fiable.
Conclusiones: Con base en los resultados del estudio, sugerimos el uso de dos programas de software y la verificación manual del manuscrito.

Full text

Download as PDF