From Chits to Chatbots: Cheating in India’s Education System

Des bons d'achat aux chatbots : la tricherie dans le système éducatif indien

En juin 2024, un clip vidéo de tricherie massive lors des examens de MA et MBA menée par l'Université nationale ouverte Indira Gandhi au Bihar a soulevé de sérieuses questions sur le système éducatif de l'État. Il s'agissait du dernier d'une série d'incidents de ce type au Bihar.

En février 2023, un clip vidéo a fait surface dans le district de Samastipur, au Bihar, montrant des membres de la famille d'élèves de classe X transmettant des bons d'études à leurs pupilles à travers des grilles de fenêtre et leur disant ou leur montrant les réponses aux questions dans un centre d'examen.

Cinq ans avant que cette vidéo ne devienne virale, des jeunes hommes, toujours au Bihar, étaient photographié grimper dans les immeubles et transmettre des notes manuscrites aux étudiants afin qu'ils puissent tricher lors d'un examen.

Malheureusement, de tels cas de formes traditionnelles de tricherie se produisent régulièrement dans des États comme le Bihar et l’Uttar Pradesh. Une combinaison de facteurs Le manque de volonté politique pour mettre un terme à l'adoption de moyens injustes, le mauvais apprentissage à l'école et le manque d'enseignants suffisamment qualifiés poussent les étudiants désespérés à tricher aux examens, en particulier dans ces deux États.

Mais aujourd'hui, une nouvelle forme de tricherie semble gagner du terrain dans le système éducatif indien, notamment dans l'enseignement supérieur. Les étudiants et les chercheurs se tournent vers la technologie basée sur l’intelligence artificielle pour les aider à tricher, ce qui rend la détection de leurs actes répréhensibles difficile, voire impossible.

La véritable crainte parmi les universitaires indiens en éducation est que les étudiants et les chercheurs des collèges et universités qui utilisent régulièrement des outils basés sur l’IA pour plagier ou tricher n’entreront sur divers marchés du travail et continueront à utiliser de tels moyens injustes pour faire progresser leur carrière.

Le problème perpétuel du plagiat

Des exemples d’utilisation de l’IA pour tricher ou plagier ont déjà été vus.

En 2023, les universités britanniques étaient confrontées à un problème qui s’aggravait. Environ 7 300 candidatures d’étudiants à divers programmes de premier cycle ont été identifiées comme contenant contenu plagiéplus du double détecté l'année précédente. Parmi eux, 765 étaient des candidats indiens qui avaient utilisé des outils d'IA pour « tricher » sur des segments de candidature spécifiques, tels que sur leur déclaration personnelle.

Il n'existe aucune donnée disponible sur l'ampleur et l'étendue de la tricherie au premier cycle, à la maîtrise ou au doctorat. niveaux en Inde. Mais en 2016, le régulateur de l'enseignement supérieur du pays, la University Grants Commission, rédigé une loi pour que le gouvernement central empêche « le plagiat généralisé dans le monde universitaire ». C'est devenu une réalité en 2018 lorsque le règlement « Promotion de l’intégrité académique et prévention du plagiat dans les établissements d’enseignement supérieur » a été adopté.

Cela fait suite à la décision du régulateur en 2015, qui a permis obligatoire que le logiciel anti-plagiat est utilisé pour vérifier le doctorat. thèses. Cette décision était la conséquence du fait qu’un certain nombre de « vice-chanceliers et professeurs d’universités centrales » avaient été accusé de plagiat. La Commission cherchait à prévenir le plagiat au niveau de la maîtrise, de la maîtrise, du doctorat et des enseignants.

Pourtant, même si de fortes suggestions ont été faites à l’étranger, notamment aux États-Unis, pour utiliser l’IA pour « examiner les travaux universitaires à la recherche de plagiat potentiel », le manque d’intégrité académique en Inde a reçu une attention inégale.

Tricherie endémique

En 2023, un ancien vice-chancelier de l'Université de Delhi révélé qu'un juge de la Cour suprême lui avait écrit une « note de colère » lorsqu'il était à la tête de l'université, affirmant qu'il avait « détecté un cas flagrant de plagiat dans une thèse de doctorat d'un étudiant chercheur » à l'université. À sa grande consternation, le vice-chancelier a par la suite découvert qu’une « partie importante » des contributions académiques des professeurs de l’université « s’est avérée plagiée ».

À cette époque, l’IA – sous la forme d’un logiciel de vérification du plagiat – lui est venue en aide.

Plus tard, à mesure que sa prise de conscience grandissait, le même vice-chancelier découvrit : «de plus en plus de cas de plagiat dans plusieurs universités», un phénomène qu'il a qualifié d'« endémique » au niveau des établissements indiens de premier cycle. Les étudiants « prenaient régulièrement du matériel provenant de plusieurs sources sans le reconnaître », a découvert le vice-chancelier.

Plus important encore, la communauté enseignante ne pouvait pas faire grand-chose pour mettre fin à cette mauvaise pratique, car les logiciels de détection du plagiat n’étaient pas largement utilisés à l’époque.

En 2018, la Commission des subventions universitaires introduit des mesures strictes lutter contre la tricherie dans la recherche universitaire, d'autant plus que c'est un secret de polichinelle que les chercheurs ont utilisé des chatbots produire des articles scientifiques. Selon la gravité du plagiat, ces réglementations prévoyaient différents niveaux de sanctions, allant de la nouvelle soumission du travail à l'annulation des diplômes.

Les universités de toute l'Inde ont largement adopté l'utilisation de programmes approuvés par les régulateurs. outils de détection de plagiatqui peut également détecter le plagiat des étudiants à l'aide d'outils d'IA générative.

Mais la manière dont ces étudiants utilisent les outils d’IA devient de plus en plus sophistiquée. Par exemple, lors de la rédaction d’essais, les étudiants utilisent des outils d’IA générative pour rédiger des réponses à leur place, puis ils utilisent un logiciel d’écriture pour paraphraser ce que les outils d’IA d’origine ont produit. Ce processus en plusieurs étapes rend difficile pour les outils de détection du plagiat de détecter la copie et le plagiat.

Ou encore, dans les cours et les examens de mathématiques, les logiciels d'IA peuvent générer des codes pour résoudre les problèmes posés et ne pas résoudre directement les problèmes mathématiques, échappant ainsi à la détection de tricherie.

Le recours aux outils de détection ne suffit pas

Le problème est que les étudiants produisent du bon travail en utilisant les outils d’IA, mais ils ne développent souvent pas les compétences d’apprentissage ou de résolution de problèmes dont ils auront besoin pour naviguer dans le travail et la vie.

La réponse naturelle des enseignants à ce problème est de s'appuyer sur des outils de détection, qui évoluent pour gérer les supports générés par l'IA, tels que Turnitin, GPTZero et Grammarly.

Certains se tournent même vers l’IA logiciel de surveillance des examens pour surveiller les étudiants lors des examens en ligne. Un tel logiciel peut utiliser la reconnaissance faciale pour reconnaître l'élève et détecter également les comportements suspects tels que des mouvements inhabituels ou l'accès à des appareils, sites Web ou autres programmes interdits.

L’utilisation rapide et généralisée de l’IA dans l’enseignement supérieur en Inde et l’angoisse qui en résulte dans les débats autour de son utilisation rappellent l’époque où les calculatrices gagnaient rapidement en capacité. Au début, personne ne s’en souciait vraiment car ces petites machines effectuaient des fonctions arithmétiques simples. Ensuite, les calculatrices sont devenues un peu plus sophistiquées et ont remplacé le besoin d'une règle à calcul, puis des fonctions trigonométriques et connexes ont été introduites, et l'établissement d'enseignement a été déconcerté.

Pendant un certain temps, il a été interdit d’utiliser ces machines lors des examens de mathématiques. Mais cette bataille a été rapidement perdue lorsque les enseignants ont conclu que les tests de mathématiques devaient accepter que les capacités des machines pouvaient aller au-delà des tests effectués sur nos élèves humains.

Il existe un parallèle étroit avec ChatGPT et les outils d’IA associés, qui peuvent faire presque tout ce que nous testons traditionnellement dans les sciences sociales et humaines. Mais la restriction des capacités de l’IA utilisées dans les examens et les travaux de recherche est en grande partie due au manque d’imagination des professeurs. Au lieu de cela, ils pourraient utiliser l’IA pour concevoir des tests qui acceptent la disponibilité et l’utilisation de cette technologie dans les tests eux-mêmes et ainsi ouvrir la voie à un tout nouveau niveau d’enseignement supérieur.

Bien entendu, les inquiétudes suscitées par les nouvelles technologies ne sont pas toujours erronées. Il y a un vraie peur que les chatbots diminuent les capacités de réflexion critique des étudiants et des chercheurs. Il est important que nous formions les esprits jeunes (et plus âgés) à lire, écrire, réfléchir, rechercher et communiquer de manière succincte alors qu’ils se préparent à entrer sur le marché du travail.

Cependant, des changements doivent également être apportés à la manière dont nous enseignons, notamment à la manière dont nous évaluons les étudiants.

Publié initialement sous Creative Commons par 360infos™.

A lire également