«به چشمهایتان اعتماد نکنید»؛ چطور ویدیوهای جعلی را در شبکههای اجتماعی شناسایی کنیم
با شتاب گرفتن توسعه هوش مصنوعی مولد، جهان وارد مرحلهای حساس شده است که در آن میتوان تصاویری بسیار واقعی از افرادی ساخت که هرگز آن سخنان را نگفته یا آن رفتارها را انجام ندادهاند.
این تحول، نگرانیهای گستردهای درباره جعل واقعیت، فریب افکار عمومی و سوءاستفادههای مجرمانه ایجاد کرده است.
کارشناسان هشدار میدهند که فناوریهای موسوم به «دیپفیک» دیگر محدود به سرگرمی یا آزمایشهای تحقیقاتی نیستند و اکنون به ابزاری مؤثر برای گمراهسازی رسانهای، اخاذی دیجیتال، تخریب اعتبار افراد و دستکاری افکار عمومی تبدیل شدهاند؛ روندی که میتواند ثبات اجتماعی و سیاسی را نیز تحت تأثیر قرار دهد.
محمد محسن رمضان، رئیس واحد هوش مصنوعی و امنیت سایبری مرکز العرب للأبحاث والدراسات، در گفتوگو با «العربية.نت/الحدث.نت» گفته است گزارشها و بررسیهای فنی جدید از افزایش بیسابقه استفاده از فناوری دیپفیک خبر میدهند. به گفته او، در مراحل اولیه، تولید چنین محتوایی نیازمند تخصص بالا، زمان طولانی و توان پردازشی قابلتوجه بود، اما این محدودیتها امروز عملاً از میان رفتهاند.
به گفته رمضان، با ورود مدلهای پیشرفته هوش مصنوعی مولد، ابزارهای جعل دیجیتال در دسترس عموم کاربران قرار گرفتهاند و کار با آنها بسیار ساده شده است. این ابزارها میتوانند در عرض چند دقیقه محتوایی بسیار واقعی تولید کنند؛ موضوعی که خطر آن را در محیط رسانهای مبتنی بر سرعت، که گاه راستیآزمایی در آن به حاشیه میرود، دوچندان کرده است.
او در عین حال به ابزارهایی اشاره کرده که بهعنوان خط دفاعی اولیه برای شناسایی محتوای جعلی در دسترس کاربران قرار دارند. از جمله این ابزارها، سامانه Deepfake Detection است که با تحلیل الگوهای حرکتی، پیکسلها و صداهایی که با چشم و گوش قابل تشخیص نیستند، احتمال دستکاری را بررسی میکند. ابزار Copyleaks نیز با تحلیل ساختار دیجیتال تصاویر و مقایسه آنها با پایگاههای داده بزرگ، در بسیاری از تحریریههای خبری برای جلوگیری از ورود تصاویر جعلی به اخبار فوری استفاده میشود.
ابزار Arting AI نیز برای شناسایی تصاویر تولیدشده با هوش مصنوعی به کار میرود و معمولاً ناهماهنگیهای ظریف در پسزمینه، جزئیات بیش از حد ایدهآل و نشانههای پنهان الگوریتمی را آشکار میکند. افزون بر این، افزونه InVID – WeVerify که در اتاقهای خبر تحقیقی جهان کاربرد گسترده دارد، با تجزیه ویدیو به فریمهای ثابت و جستوجوی معکوس، استفاده مجدد از تصاویر قدیمی در زمینههای گمراهکننده را مشخص میکند.
در همین زمینه، محمد رجایی، معاون پیشین وزیر کشور مصر، گفته است کارشناسان امنیت سایبری به نشانههایی همچون حرکت غیرطبیعی چشمها، ناهماهنگی صدا با حالات چهره، اعوجاج در دستها یا گوشها، تفاوت نورپردازی میان فرد و پسزمینه و نبود سایههای واقعی بهعنوان علائم اولیه جعل اشاره میکنند؛ هرچند این نشانهها بدون ابزارهای تخصصی کافی نیستند.
او تأکید کرده که خطر دیپفیک تنها به تخریب افراد محدود نمیشود، بلکه میتواند اعتماد عمومی به رسانهها را تضعیف کند، شایعات را در زمان بحرانها گسترش دهد و نهادها و شخصیتهای عمومی را هدف قرار دهد. به گفته او، برخی کشورها این فناوری را تهدیدی مستقیم علیه امنیت دیجیتال ملی تلقی کردهاند.
رجایی برای کاهش این خطرات توصیه کرده است کاربران از بازنشر محتوای شوکآور پیش از بررسی صحت آن خودداری کنند، از چند ابزار شناسایی بهطور همزمان استفاده کنند، به برداشت بصری صرف اعتماد نکنند، تنظیمات حریم خصوصی حسابهای خود را فعال نگه دارند و همواره نسخههای اصلی تصاویر و ویدیوهای شخصی را حفظ کنند.