چهره پنهان هوش مصنوعی؛ آیا این فناوری به خدمت افراطگرایی درمیآید؟
در حالی که جهان با شتابی بیسابقه بهدنبال بهرهگیری از ظرفیتهای روبهرشد هوش مصنوعی در حوزههای اقتصاد، پژوهش علمی و افزایش بهرهوری است، نگرانیهای امنیتی تازهای نیز همزمان سر بر آوردهاند.
این نگرانیها به احتمال انحراف این فناوری نوین به مسیرهایی خطرناک بازمیگردد؛ مسیری که میتواند هوش مصنوعی را به ابزاری در خدمت گروههای افراطی و سازمانهای تروریستی تبدیل کند.
این هشدار دیگر صرفا یک فرضیه تئوریک نیست، بلکه به موضوعی جدی در محافل امنیتی و اطلاعاتی بدل شده است. شواهدی وجود دارد که نشان میدهد تلاشهایی هدفمند برای آزمودن توانمندیهای هوش مصنوعی و بهکارگیری آن در مقاصد غیرقانونی در جریان است؛ تلاشهایی که میتواند توازن امنیتی را در بسیاری از کشورها بر هم بزند.
مارکو مسعد، کارشناس حوزه هوش مصنوعی، در گفتوگو با رسانهها تاکید کرده است که این فناوری ماهیتی دوگانه دارد. به گفته او، هوش مصنوعی از یکسو میتواند موتور محرک اقتصاد جهانی، افزایشدهنده بهرهوری و تسهیلکننده تحقیقات علمی باشد و از سوی دیگر، در صورت سوءاستفاده، به ابزاری برای تسریع اقدامات خشونتآمیز و تحقق اهداف گروههای تروریستی تبدیل شود.
به باور این کارشناس، گروههای افراطی دیگر تنها به نیروی انسانی برای جذب و تاثیرگذاری متکی نیستند، بلکه با استفاده از هوش مصنوعی به سراغ جذب دیجیتال جوانان، اثرگذاری بر افکار عمومی در شبکههای اجتماعی و انتشار اخبار و تصاویر جعلی رفتهاند؛ روندی که قدرت تخریبی این گروهها را چند برابر میکند.
مسعد همچنین به دشواریهای نهادهای اطلاعاتی و دولتها در کنترل استفاده منفی از هوش مصنوعی اشاره میکند. او توضیح میدهد همانطور که امکان کنترل کامل فعالیتهای تروریستی بهطور صددرصدی وجود ندارد، پیشبینی واکنشهای دقیق مدلهای هوش مصنوعی نیز همواره ممکن نیست. حتی اگر این مدلها از پاسخ مستقیم به پرسشهای حساس خودداری کنند، بازنویسی هوشمندانه سوالها میتواند راه را برای دسترسی به اطلاعات خطرناک هموار کند.
به گفته این کارشناس، یکی از راهکارهای نسبی برای کاهش خطرات، استفاده از خود هوش مصنوعی برای رصد و مهار سوءاستفادههاست؛ از طریق طراحی سامانههایی که بتوانند الگوهای مشکوک، کلیدواژهها و رفتارهای پرخطر را شناسایی کرده و هشدارهای زودهنگام صادر کنند. با این حال، او تاکید دارد که چنین راهحلهایی کامل نیست و نمیتواند بهتنهایی مانع تمامی تهدیدها شود.
در پایان، مسعد بر مسئولیت مشترک دولتها، شرکتهای فناوری، شبکههای اجتماعی و جامعه مدنی تاکید میکند. از نگاه او، خلأهای قانونی، اولویت دادن به سودآوری و شتاب در توسعه فناوری، باعث شده است کنترل پیامدهای منفی هوش مصنوعی عقبتر از پیشرفت فنی آن حرکت کند. آینده امنیت جهانی، به میزان هماهنگی میان توسعه فناوری و ایجاد چارچوبهای نظارتی موثر وابسته خواهد بود؛ هماهنگیای که در صورت بیتوجهی، میتواند هزینههای سنگینی بهدنبال داشته باشد.