Eddig közel 7000 hallgatót kaptak rajta AI-alapú csaláson – a szakértők szerint ez még csak a jéghegy csúcsa. Ráadásul sokan már arra is használják a mesterséges intelligenciát, hogy „emberibbé” tegyék a szöveget, így könnyen kijátsszák az egyetemek AI-érzékelő rendszerét.
Az elmúlt években több ezer brit egyetemi hallgatót kaptak rajta azon, hogy visszaéltek a ChatGPT-vel és más mesterséges intelligencia eszközökkel, miközben a hagyományos plágium esetei látványosan csökkenni kezdtek – derül ki a Guardian vizsgálatából.
A tanulmányi tisztességgel kapcsolatos szabálysértések felmérése szerint 2023–2024-ben közel 7000 bizonyított esetet regisztráltak, ahol hallgatók AI-eszközöket használtak csalásra. Ez 1000 hallgatóra vetítve 5,1 esetet jelent – szemben a 2022–2023-as tanév 1,6 esetével. A májusig rendelkezésre álló adatok alapján ez a szám idén még tovább nőhet, elérve a 7,5-öt 1000 hallgatóra vetítve.
Valójában azonban még ennél is több AI-alapú csalás történhet, mint amit az egyetemek észlelnek. Egy februári felmérés szerint a brit hallgatók 88%-a használ AI-t a beadandókhoz. A Readingi Egyetem kutatói tavaly saját értékelőrendszerüket tesztelték, és az AI által generált munkák 94%-át észrevétlenül tudták beadni.
Az AI-t használni kívánó csalók számára pedig bőséges online forrás áll rendelkezésre: a Guardian több tucat TikTok-videót talált, amelyek AI-parafrázis- és esszéíró eszközöket reklámoznak. Ezek a programok képesek „emberibbé” tenni a ChatGPT szövegeit, így kijátszva az egyetemi AI-detektorokat.
Dr. Thomas Lancaster, a londoni Imperial College akadémiai integritáskutatója szerint:
„Ha valaki jól használja az AI-t, és szerkeszti az eredményt, nagyon nehéz bizonyítani a visszaélést. Én abban bízom, hogy a hallgatók ennek ellenére még mindig tanulnak a folyamat során.”
A kutató azt is elmondta, hogy olyan készségekre kellene fókuszálni, amelyeket az AI nem tud kiváltani: kommunikáció, emberi kapcsolatok, önbizalom, technológiai alkalmazkodás, ugyanis szerinte ezek kellenek a munkaerőpiacon való boldoguláshoz.