Kategorien
Seiten
-

IT Center Blog

EUNIS 2019 – “Cheating Detection: Identifying Fraud in Digital Exams”

17. Juni 2019 | von

——-ENGLISH VERSION BELOW——-

 

Quelle: Unsplash

 

In unserem heutigen Blogbeitrag stellen wir Ihnen, wie bereits vor einigen Wochen angekündigt, das erste IT Center Paper vor, das auf der EUNIS 2019 in Trondheim präsentiert wurde. Insgesamt stellen wir Ihnen in den nächsten sieben Wochen immer montags ein wissenschaftliches Paper vor. Geschrieben wurde dieses erste von unseren IT Center-Mitarbeitenden Bastian Küppers, Thomas Eifert, Julia Opgen-Rhein sowie Ulrik Schroeder der Learning-Technologies-Gruppe vom Lehr- und Forschungsgebiet Informatik 9. Im Paper wird untersucht, welche Möglichkeiten es gibt, erhöhten Betrugsmöglichkeiten bei digitalen Prüfungen entgegenzuwirken.

 

 

Es ist wünschenswert, Studierende ihre eigenen Geräte beim Ablegen digitaler Prüfungen nutzen zu lassen, da digitale Signaturen in Form eines privaten Schlüssels sicher genutzt werden können, um Autorenschaft und Integrität zu bestimmen. Allerdings macht dies jedoch einen Betrug besonders wahrscheinlich.

 

Ein vorgeschlagener Ansatz ist die Kontrolle der Geräte der Studierenden während der Prüfung (in-situ). Das Gerät wird dabei nicht gesperrt, sondern ausschließlich hinsichtlich Aktionen während der Prüfung überwacht. Eine offensichtliche Betrugsmöglichkeit ist die Verwendung anderer Software, als die für die Prüfung zulässige. Andere, subtilere Arten des Betrugs können mit Hilfe von Log-Ereignissen erkannt werden, z.B. durch Tippmuster.

 

Fraud in digital exams

Quelle: Pixabay

 

Ein weiterer Ansatz besteht darin, einen Betrug nach der Prüfung zu erkennen (a-posteriori). Durch die Protokollierung und Interpretation von Zeitreihen könnte beispielsweise festgestellt werden, ob die Studierenden Ausschnitte ihrer Arbeit in mehr oder weniger regelmäßigen Zeitabständen eingegeben haben. Dies dient als Indikator für den Nichtbetrug im Gegenzug zu längeren Zeiten der Inaktivität, gefolgt von der Eingabe großer Arbeitsanteile in sehr kurzer Zeit (Indikator für Betrug). Darüber hinaus besteht die Möglichkeit, die Abgaben der Studierenden zu analysieren und mit vorangegangenen Abgaben zu vergleichen – denn Menschen verfügen nachweislich über einzigartige Schreib-  und Codierstile.

 

Das Paper beschreibt und diskutiert verschiedene Techniken, die verwendet werden können, um Betrug in-situ und a-posteriori zu erkennen sowie die Voraussetzungen, die dafür erfüllt werden müssen. Letztendlich können Betrugsversuche jedoch mit diesen Methoden nur vermutet, aber nicht eindeutig nachgewiesen werden. Das endgültige Urteil, ob es sich um den Betrug eines Studierenden handelt oder nicht, muss jedoch von den Prüfenden selbst gefällt werden.

 

Dieser Beitrag stellt einen wichtigen Beitrag für die moderne faire Lehre dar. Wir sind gespannt, welche weiteren Entwicklungen es hier in Zukunft geben wird.

 

Verantwortlich für die Inhalte dieses Beitrags ist Sophia Teeuwen.

 

———-ENGLISH VERSION———-

 

Today, we would like to introduce the first of the IT Center papers that were presented at EUNIS 2019 – as announced recently. In total, we will present one paper each Monday for the upcoming seven weeks. This first one was written by our colleagues Bastian Küppers, Julia Opgen-Rhein and Thomas Eifert as well as Ulrik Schroeder of the Learning Technologies Research Group of the “Lehr- und Forschungsgebiet Informatik 9.” The paper looks at possibilities to combat the increased opportunity for cheating when using digital exams.

 

Having students use their own devices is desirable because a digital signature in the form of a private key can be securely used to determine authorship and integrity. However, this makes cheating particularly likely.

 

One suggested approach is to control the students’ devices during the exam (in-situ). The device is not locked but its actions monitored. An obvious way of cheating might be using software other than the exam client. Other more subtle ways of cheating can be detected using log-events, for example, typing patterns.

 

Another approach would be to detect cheating after the exam (a-posteriori). By logging and interpreting the time series, for example, it could be noted whether students entered snippets of their work in more or less regular periods of time – an indicator of not-cheating. Longer periods of inactivity followed by entering large chunks of work in a very short time, on the other hand, would be an indicator of cheating. Another possibility would be to analyse the final submissions of students and compare them to their previous work as people have been shown to have unique writing and coding styles.

 

The paper describes and discusses different techniques that can be used to detect cheating in-situ and a-posteriori and what prerequisites they require. At the end of the day, however, cheating attempts can only be conjectured but not proven by these methods. The final verdict on whether a student cheated or not has to be made by the examiners themselves.

 

This paper is an important contribution to modern fair teaching. We are curious to see what further developments there will be in the future.

 

Responsible for the content of this post is Sophia Teeuwen.

Kommentare sind geschlossen.