اپیدمی تقلب با استفاده از هوش مصنوعی؛ تشخیص آن تقریباً غیرممکن است!
هری چیزی میداند که استادانش نمیدانند؛ او میتواند بدون تحمل شب بیداری برای مطالعه، گذراندن بحرانهای مقالهنویسی، یا استرس، امتخانات خود را با نمره خوب به پایان برساند، هرچند که یادگیری واقعی در این روش وجود ندارد.
او از هوش مصنوعی (AI) استفاده میکند
دانشجوی سال دوم میگوید که این کار بسیار آسان است. «من هزینه اشتراک ممتاز ChatGPT را مشابه به اشتراکگذاری هزینههای ماهانه گرمایش یا رمز عبور نتفلیکس، با چهار دوست دیگر تقسیم میکنم.» هزینه ۱۶ پوندی برای نسخه «پیشرفته» نرمافزار AI «میتواند مقالات کامل را در عرض چند ثانیه بنویسد.»
هری به Mail میگوید: «این نرمافزار استدلالهایی را ارائه میدهد که نمیتوانستم تصور کنم، به همین دلیل اینقدر مفید است.»
هری در حالی که فقط از کنار کتابخانه در مسیر به سمت بار عبور کرده بود، با نمره بالا در امتحانات پایان سال خود موفق شد.
او با افتخار میگوید: «در نهایت، همه دیگران هم این کار را میکنند، پس چرا من نباید بکنم؟»
او اشتباه نمیکند. دهها هزار دانشآموز در بریتانیا از هوش مصنوعی برای نوشتن مقالات خود و حتی بدتر، انجام امتحاناتشان استفاده میکنند. طبق تحقیقاتی که از طریق درخواست آزادی اطلاعات توسط شرکت AI، AIPRM، به دست آمده است، بیش از ۸۰ درصد دانشگاههای بریتانیا در دو سال گذشته دانشجویان را به دلیل تقلب با هوش مصنوعی مورد تحقیق قرار دادهاند.
این پدیده به حدی گسترش یافته که ممکن است با بحران عمدهای در دنیای آکادمیک روبهرو شویم و این مشکل به احتمال زیاد با پذیرش حدود ۳۰۰ هزار دانشجوی جدید در سال تحصیلی آینده، بسیاری از آنها که امروز با اشتیاق نتایج A-level خود را بررسی خواهند کرد، در حال رشد است.
در دوران پاندمی، دانشجویان دانشگاهها به «یادگیری از راه دور» ترغیب شدند و امتحانات را در خانه و با استفاده از رایانههای خود انجام دادند. من در آن زمان دانشجوی کارشناسی بودم و امتحاناتم را در اتاق خوابم، بر روی میز آشپزخانه، در کتابخانهها زمانی که قرنطینه اجازه میداد و در امتحانات استاندارد ۲۴ ساعته که یک روز و شب برای تکمیل آنها زمان دارید، حتی در تخت خوابم انجام دادم. ما اجازه داشتیم از گوگل استفاده کنیم و به یادداشتهایمان رجوع کنیم.
زمانی که سال گذشته فارغالتحصیل شدم، از سال ۲۰۱۸ که GCSEهای خود را داده بودم، امتحان رسمی ننشسته بودم. عضلات دستم احتمالاً نمیتوانند با سختیهای سه ساعت نشستن در سالن امتحانات کنار بیایند.
در حالی که برخی از مؤسسات مانند کمبریج، جایی که من تحصیل کردم، به طور عمده به امتحانات حضوری پس از کووید بازگشتهاند، بسیاری از مؤسسات به دلیل کاهش هزینهها، کمبود ظرفیت ساختمان و البته عدم تمایل میان دانشجویان و استادان، هنوز به امتحانات آنلاین ادامه میدهند.
با توجه به اینکه امتحانات در خانه چقدر راحتتر است، این چندان تعجبآور نیست. انجام امتحانات با کمک کتابها و اینترنت نسبت به امتحان دادن بدون آنها به وضوح بسیار کمتر چالشبرانگیز است، در حالی که استادان دیگر نیازی به نظارت ندارند.
در دانشگاه من، برخی از دانشجویان گاهی اوقات به من گفتند که از هوش مصنوعی برای یادداشتها و مقالات استفاده میکنند، هرچند هرگز نشنیدهام که کسی از این نرمافزار برای انجام امتحانات استفاده کرده باشد، و خودم نیز هرگز از آن استفاده نکردهام. اما پس از فارغالتحصیلی، از بسیاری از دانشجویان شنیدهام که به راحتی به استفاده از هوش مصنوعی برای تقلب در تکالیف ارزیابیشده اعتراف میکنند.
آنا، که در حال حاضر در سال دوم دوره سهساله حقوق در یکی از دانشگاههای گروه راسل است، میگوید که برای چندین ماژول امتحانی سال گذشته از ChatGPT استفاده کرده است.
او میگوید: «با وارد کردن قوانین و تحلیلهای مربوط به آزمون به ربات قبل از امتحانم، پاسخهایی متناسب با مواد درسی را گرفتم.» در ماژولهایی که آنا از ChatGPT به عنوان «مغز دوم» استفاده کرده بود، نمره First را کسب کرد.
دانشجوی دیگری به نام گریس، که در حال کسب درجه اول در رشته فلسفه در یکی از دانشگاههای معتبر لندن است، گفت: «من مقالات کامل امتحان را با استفاده از ChatGPT و فقط با وارد کردن یک سوال به نرمافزار نوشتم. سپس آن را با استفاده از ابزار هوش مصنوعی دیگری به نام Quill Bot که متن را بازنویسی میکند، ترکیب کردم تا تشخیص سرقت علمی دشوارتر شود. امیدوارم که نرمافزار AI به اندازه کافی تغییر داده شده باشد تا برای هیچ تخلفی شناسایی نشوم.»
در واقع، شناسایی افرادی که با استفاده از هوش مصنوعی تقلب میکنند، فوقالعاده دشوار است. در سپتامبر گذشته، یک پروژه تحقیقاتی که ۳۲ دوره در دانشگاههای پنج کشور را پوشش داد، نشان داد که ۷۴ درصد از دانشجویان قصد داشتند از هوش مصنوعی استفاده کنند و نرمافزارهای ضد سرقت علمی در ۹۵ تا ۹۸ درصد موارد نتوانسته بودند تقلبها را شناسایی کنند.
در ژوئن، مطالعهای در دانشگاه ریدینگ نشان داد که هوش مصنوعی نتایج بالاتری نسبت به ۸۰ درصد از دانشجویان کارشناسی دانشگاهها به دست آورده و به ندرت شناسایی میشود.
گریس میگوید: «من نسبت به سایر دانشجویان کوشاتر هستم. حداقل من پاراگرافها را میخوانم و کمی تغییرات اعمال میکنم، بسیاری از دوستانم حتی این کار را هم نمیکنند.»
برای کشف میزان آسان بودن آن، سوالی از امتحان انگلیسی دانشگاه آکسفورد برای کالج اول سولز را تایپ میکنم: «آیا شکسپیر به پول وسواس داشت؟» و اضافه میکنم: «لطفاً یک مقاله علمی ۲۵۰۰ کلمهای بنویسید.» سی ثانیه بعد، مقالهای در مقابل من ظاهر میشود.
متن جامع، منسجم و سازگار است، اما بسیار خستهکننده است. فاقد هر گونه تنوع لحن یا حس «صدا» است. مقاله با این جمله آغاز میشود: «برای درک تعامل شکسپیر با تمهای مالی، لازم است زمینه اقتصادی دوران او را در نظر بگیریم. اواخر قرن ۱۶ و اوایل قرن ۱۷ دوران تحول اقتصادی قابل توجهی در انگلستان بود.» به نظر من، ربات برای موضوعاتی مانند این فاقد خلاقیت است، اما ممکن است برای موضوعات مبتنی بر واقعیت مانند حقوق، پزشکی یا تاریخ بهتر باشد.
بله، این کار آسان است. اما در حالی که هزاران دانشجوی بریتانیایی به ChatGPT و دیگر مدلهای هوش مصنوعی تکیه کردهاند، دلیل اصلی که آنها در تقلب شناسایی میشوند، عادت تکنولوژی به اشتباه کردن است که به آن «توهم» میگویند. بسیاری از رباتهای هوش مصنوعی معمولاً قادر به تمییز بین واقعیت و تخیل نیستند، به عنوان مثال، موارد و نقل قولهای حقوقی را میسازند و عناوین کتابها و شماره صفحات را اختراع میکنند.
در کمبریج سال گذشته، وقتی به دانشجویان حقوق یک پاسخ امتحانی سال آخر که توسط هوش مصنوعی نوشته شده بود، نشان داده شد و گفته شد که نمرهاش به اندازه یک سوال درجه سوم است، لرزهای در اتاق افتاد. اما اگر دانشگاهها امیدوارند که ترساندن دانشجویان از نرمافزار، آنها را از استفاده از آن منصرف کند، به نظر نمیرسد که این کار موثر واقع شده باشد.
برای مقابله با این تهدید، مؤسسات به طور فزایندهای به نرمافزارهای «ضد سرقت علمی» متکی هستند، اما این نرمافزارها اغلب قادر به شناسایی متقلبان نیستند. بدتر از آن، این نرمافزارها به اشتباه افراد بیگناه را شناسایی میکنند.
شرکت OpenAI (شرکت پشت ChatGPT) «طبقهبند هوش مصنوعی» یا بررسیکننده سرقت علمی خود را به دلیل «نرخ پایین دقت» تعطیل کرد. Turnitin برنامه ضد سرقت علمی دیگری که توسط ۹۹ درصد دانشگاههای بریتانیا استفاده میشود، بیان میکند که دقت بالای آن با احتمال کمتر از یک درصد اشتباه مثبت همراه است. اما مطالعات متعدد نشان میدهند که این مورد صحیح نیست.
در می ۲۰۲۳، شبکه اروپایی برای یکپارچگی علمی چندین ابزار تشخیص هوش مصنوعی از جمله Turnitin را آزمایش کرد. این مطالعه نتیجهگیری کرد که هیچ یک از آنها «نه دقیق و نه قابل اعتماد» بودند.
شرکت Turnitin تأکید میکند که سیستم تنها به عنوان راهنمایی برای احتمال سرقت علمی است و نه اثبات. این شرکت اضافه میکند که «تشخیص تخلف را انجام نمیدهد. ما دادهها را برای تصمیمگیری آگاهانه به معلمان ارائه میدهیم.»
یکی از استادان دانشگاه معتبر به روزنامه Mail گفت که تقلب با هوش مصنوعی در مؤسسه او بسیار گسترده است، اما تقریباً اثبات آن غیرممکن است.
او فاش کرد که چندین دانشجو با استفاده از هوش مصنوعی شناسایی شدهاند و افزود که این دانشجویان به دلیل اشتباهات متعدد در استناد به مقالات علمی نادرست یا غیرواقعی در پاسخهایشان به سوالات امتحان، شناسایی شدند.
او اضافه کرد: «اینها تنها کسانی بودند که شناسایی شدند، پس چه کسی میداند چند نفر دیگر از آن استفاده میکنند؟»
پس از جلسه انضباطی، او گفت که آنها «با تنها مدرک قبولی به خانه فرستاده شدند تا نشان دهند که سه سال تحصیل کردهاند.»
تنها راه برای اطمینان از اینکه یک دانشجو با هوش مصنوعی تقلب نمیکند، این است که او را در سالن امتحان با دسترسی نداشتن به اینترنت قرار دهیم، همانطور که از دیرباز امتحانات به این روش برگزار شده است.
سال گذشته، دانشگاههای استرالیا درباره «جنگ تسلیحاتی» هوش مصنوعی میان دانشجویان و استادان هشدار دادند و افزودند که ممکن است مجبور شوند به امتحانات حضوری بازگردند. به طور متناقض، فناوری هوش مصنوعی میتواند به ناظران در سالنهای امتحان کمک کند تا تقلب را شناسایی کنند، همانطور که در چین نشان داده شده است، جایی که برخی از مؤسسات از دوربینها برای نظارت بر دانشآموزان در آزمونهای ورودی دانشگاه استفاده میکنند. این دوربینها حرکات مشکوک دانشآموزان مانند خم شدن برای برداشتن چیزها یا چرخاندن سر را شناسایی کرده و به ناظر هشدار میدهند.
در بریتانیا، برخی از دورههای دانشگاه گلاسگو امسال به دلیل نگرانیها درباره هوش مصنوعی به امتحانات حضوری بازگشتند. دانشگاههای دیگر احتمالاً از این الگو پیروی خواهند کرد، بنابراین دانشجویانی که هرگز به کلاسهای درس نرفتهاند یا یادداشتهای مدرس را نخواندهاند و تنها موضوعات مقاله را در هوش مصنوعی تایپ کردهاند، ممکن است به زودی با عواقب شدیدی روبرو شوند.
اگر اقدامی صورت نگیرد، کارفرمایان ممکن است به زودی با نسلی از فارغالتحصیلان مواجه شوند که «دانش» به اصطلاح آنها از شبکه عصبی غیر دقیق یک ماشین سرقت شده است.
سوالی که دانشجویان باید از خود بپرسند این است که آیا ارزش دارد که به دانشگاه بروند اگر از آن هیچ چیزی نیاموختهاند و با تقلب از مقاطع خود عبور کردهاند. اما اگر این سوال را از آنها بپرسید، احتمالاً فقط به ChatGPT برای پاسخ دادن مراجعه خواهند کرد.