هوش مصنوعی از هر سه پاسخ، یکی را جعل می‌کند

«هوش مصنوعی از هر سه پاسخ، یکی را جعل می‌کند»

مطالعه‌های جدید «اتحادیه پخش اروپا» (EBU) نشان‌دهنده نرخ بالای خطا در چت‌بات‌های محبوب هوش مصنوعی است. این سامانه‌ها به‌طور منظم اطلاعاتی از خود اختراع می‌کنند و حتی منابع نادرست ارائه می‌دهند.

شما از «جت‌جی‌پی‌تی» (ChatGPT) در مورد نتایج انتخابات می‌پرسید، از «کلود» (Claude) می‌خواهید خبرها را خلاصه کند یا از « پرپلکسیتی» (Perplexity) درباره پیش‌زمینه درگیری خاورمیانه اطلاعات می‌خواهید: میلیون‌ها نفر روزانه به چت‌بات‌های هوش مصنوعی به‌عنوان منبع اطلاعات اعتماد می‌کنند. هر هفته تنها ۸۰۰ میلیون نفر در سراسر جهان از «جت‌جی‌پی‌تی» استفاده می‌کنند. این دستیارهای دیجیتال در حال حاضر برای بسیاری، جایگزین جست‌وجوی متداول در گوگل شده‌اند.

اما بر اساس مطالعه اخیر «اتحادیه پخش اروپا» (EBU) این اعتماد خطرناک است. این کنسرسیوم متشکل از ۶۸ فرستنده خدمات عمومی از ۵۶ کشور، به طور نظام‌مند قابلیت اطمینان محبوب‌ترین سامانه‌های هوش مصنوعی را آزمایش کرده است.

نتیجه ترسناک این مطالعه چنین است: «جت‌جی‌پی‌تی»، «کلود»، «گوگل جمینای» (Google Gemini) و سایر چت‌بات‌ها تا ۴۰ درصد از پاسخ‌های خود را جعل کرده و آن‌ها را به‌عنوان واقعیت ارائه می‌دهند.

توهم‌ها: هوش مصنوعی قانع‌کننده دروغ می‌گوید

چت‌بات محبوب «جت‌جی‌پی‌تی» مصرانه ادعا می‌کند که پاپ فرانسیس هنوز زنده است. «مایکروسافت کوپایلوت» (Microsoft Copilot)، که در برنامه‌های آفیس مانند «وُرد» (Word) و «اِکسل» (Excel) نیز حضور دارد، نمی‌داند که سوئد عضو ناتو است و «گوگل جیمنای» انتخاب مجدد دونالد ترامپ به‌عنوان رئیس‌جمهور آمریکا را «ممکن» می‌داند، در حالی که این اتفاق مدت‌ها پیش افتاده است.

پیتر پوش، اقتصاددان از دانشگاه فنی دورتموند، در این‌باره هشدار می‌دهد: «این سامانه‌ها متقاعدکننده به‌نظر می‌رسند، حتی زمانی که مدام چیزهای کاملاً اشتباهی ادعا می‌کنند.» او می‌افزاید: «این امر آن‌ها را به‌ویژه برای کاربران بی‌تجربه خطرناک می‌کند، زیرا خطاها اغلب بلافاصله قابل تشخیص نیستند.»

پدیده‌ای که متخصصان آن را «توهم» (Hallucination) می‌نامند: هوش مصنوعی اطلاعاتی را از خود درمی‌آورد که در خود منسجم به‌نظر می‌رسند، اما هیچ مبنای واقعی ندارند. این اتفاق به‌ویژه در مورد رویدادهای منطقه‌ای، تحولات روز یا زمانی که چندین اطلاعات باید به هم مرتبط شوند، مکرر رخ می‌دهد.

خطری برای دموکراسی

اما این برای جامعه‌ای که افراد بیشتری اطلاعات خود را از چت‌بات‌ها می‌گیرند، به چه معناست؟ پیامدها در حال حاضر نیز ملموس است: اطلاعات نادرست به‌سرعت در رسانه‌های اجتماعی پخش می‌شوند، زیرا کاربران «واقعیت‌های» تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک می‌گذارند. دانش‌آموزان و دانشجویان اطلاعات ساختگی را در کارهای خود استفاده می‌کنند. شهروندان ممکن است بر اساس ادعاهای نادرست، تصمیمات انتخاباتی بگیرند.

نکته‌ای که به‌طور خاص فریبنده است این است که بسیاری از کاربران اصلاً نمی‌دانند که چت‌بات‌ها می‌توانند توهم ایجاد کنند. آن‌ها فرض می‌کنند که این فن‌آوری به‌صورت عینی و مبتنی بر واقعیت عمل می‌کند و این تصور غلط و خطرناکی است. سامانه‌های هوش مصنوعی اگرچه در شرایط استفاده، خود نسبت به خطاهای احتمالی هشدار می‌دهند، اما چه کسی آن‌ها را می‌خواند؟

آسیب به روزنامه‌نگاری معتبر

مشکل دیگر به اعتبار رسانه‌های معتبر مربوط می‌شود. چت‌بات‌ها به‌طور منظم ادعا می‌کنند که اطلاعات ساختگی آن‌ها از رسانه‌های معتبر نشأت می‌گیرد، در حالی که این مراکز خبری هرگز در مورد آن گزارش نداده‌اند – یا گزارش کاملاً متفاوتی ارائه کرده‌اند. کاربران، زمانی که هوش مصنوعی از نام آن‌ها برای اطلاعات نادرست سوء استفاده می‌کند، اعتماد خود را به منابع معتبر از دست می‌دهند.

مطالعه «اتحادیه پخش اروپا» چت‌بات‌ها را با صدها پرسش واقعی در مورد رویدادهای تاریخی، یافته‌های علمی و خبرهای روز مورد آزمایش قرار داد. بسته به حوزه موضوعی، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوش‌های مصنوعی آزمایش‌شده، بدون خطا عمل نکردند.

مطالب بیشتر

...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *