پژوهشهای تازه نشان میدهد که مدلهای زبانی بزرگِ متنباز (open-source)، زمانی که خارج از چارچوبها و محدودیتهای امنیتی پلتفرمهای اصلی هوش مصنوعی اجرا میشوند، میتوانند بهراحتی به ابزار سوءاستفاده مجرمان سایبری بدل گردند.
این مدلها اگر روی سرورهای مستقل و بدون کنترل مناسب اجرا شوند. در معرض ربوده شدن توسط هکرها قرار میگیرند. اینها میتوانند برای تولید هرزنامه، فیشینگ، عملیات فریب اطلاعاتی، و سایر فعالیتهای غیرقانونی به کار گرفته شوند و از سازوکارهای حفاظتی شرکتهای بزرگ عبور کنند.
پژوهشی گسترده که طی ۲۹۳ روز انجام شده است نشان میدهد هزاران استقرار عمومی از مدلهای متنباز در اینترنت وجود دارد. بطوری که بخشی از آنها بهطور بالقوه یا بالفعل برای اهداف مجرمانه استفاده میشوند.
دامنه این سوءاستفادهها از نفوذ سایبری و کلاهبرداری مالی گرفته تا نفرتپراکنی، آزار آنلاین، سرقت دادههای شخصیرا در بر می گیرد. حتی در مواردی محتوای مجرمانهٔ شدید را شامل میشود. نکته نگرانکننده این است که در بسیاری از این مدلها محدودیتهای اخلاقی و فنی عمداً حذف شدهاند.
بخش قابل توجهی از این مدلهای در دسترس، نسخههایی از خانوادههای شناختهشدهٔ مدلهای متنباز هستند. این مدلها بهدلیل محبوبیت و سهولت اجرا بهطور گسترده روی سرورهای مستقل نصب شدهاند. بررسی «دستورهای سیستمی» این مدلها نشان میدهد در درصد قابلتوجهی از آنها تنظیمات بهگونهای است که میتواند به تولید یا تسهیل رفتارهای مضر منجر شود. توزیع جغرافیایی این استقرارها نشان میدهد سهم بالایی از آنها در چین و آمریکا قرار دارد، که نشاندهنده ماهیت جهانی و فرامرزی این ریسک است.
هشدار کارشناسان
کارشناسان هشدار میدهند که گفتوگوهای رایج درباره ایمنی هوش مصنوعی بیش از حد بر پلتفرمهای بزرگ متمرکز شده است. این امر ظرفیت عظیم و کنترلنشدهٔ مدلهای متنباز را نادیده میگیرد. از نگاه آنها این وضعیت شبیه «کوه یخی» است که بخش عمده خطر آن ناپیداست.
اجماع روبهرشدی وجود دارد که مسئولیت استفادهٔ ایمن از هوش مصنوعی تنها برعهده یک بازیگر نیست. بلکه توسعهدهندگان، اجراکنندگان، پژوهشگران، و تیمهای امنیتی همگی باید در پیشبینی خطرات قابل انتظار، مستندسازی ریسکها، و ارائه ابزارهای کاهش سوءاستفاده نقش داشته باشند. این رویکردِ مشارکتی شرط لازم برای تداوم نوآوری متنباز بدون تبدیل آن به تهدیدی گسترده برای امنیت دیجیتال تلقی میشود.
