مطالعههای جدید «اتحادیه پخش اروپا» (EBU) نشاندهنده نرخ بالای خطا در چتباتهای محبوب هوش مصنوعی است. این سامانهها بهطور منظم اطلاعاتی از خود اختراع میکنند و حتی منابع نادرست ارائه میدهند.
شما از «جتجیپیتی» (ChatGPT) در مورد نتایج انتخابات میپرسید، از «کلود» (Claude) میخواهید خبرها را خلاصه کند یا از « پرپلکسیتی» (Perplexity) درباره پیشزمینه درگیری خاورمیانه اطلاعات میخواهید: میلیونها نفر روزانه به چتباتهای هوش مصنوعی بهعنوان منبع اطلاعات اعتماد میکنند. هر هفته تنها ۸۰۰ میلیون نفر در سراسر جهان از «جتجیپیتی» استفاده میکنند. این دستیارهای دیجیتال در حال حاضر برای بسیاری، جایگزین جستوجوی متداول در گوگل شدهاند.
اما بر اساس مطالعه اخیر «اتحادیه پخش اروپا» (EBU) این اعتماد خطرناک است. این کنسرسیوم متشکل از ۶۸ فرستنده خدمات عمومی از ۵۶ کشور، به طور نظاممند قابلیت اطمینان محبوبترین سامانههای هوش مصنوعی را آزمایش کرده است.
نتیجه ترسناک این مطالعه چنین است: «جتجیپیتی»، «کلود»، «گوگل جمینای» (Google Gemini) و سایر چتباتها تا ۴۰ درصد از پاسخهای خود را جعل کرده و آنها را بهعنوان واقعیت ارائه میدهند.
توهمها: هوش مصنوعی قانعکننده دروغ میگوید
چتبات محبوب «جتجیپیتی» مصرانه ادعا میکند که پاپ فرانسیس هنوز زنده است. «مایکروسافت کوپایلوت» (Microsoft Copilot)، که در برنامههای آفیس مانند «وُرد» (Word) و «اِکسل» (Excel) نیز حضور دارد، نمیداند که سوئد عضو ناتو است و «گوگل جیمنای» انتخاب مجدد دونالد ترامپ بهعنوان رئیسجمهور آمریکا را «ممکن» میداند، در حالی که این اتفاق مدتها پیش افتاده است.
پیتر پوش، اقتصاددان از دانشگاه فنی دورتموند، در اینباره هشدار میدهد: «این سامانهها متقاعدکننده بهنظر میرسند، حتی زمانی که مدام چیزهای کاملاً اشتباهی ادعا میکنند.» او میافزاید: «این امر آنها را بهویژه برای کاربران بیتجربه خطرناک میکند، زیرا خطاها اغلب بلافاصله قابل تشخیص نیستند.»
پدیدهای که متخصصان آن را «توهم» (Hallucination) مینامند: هوش مصنوعی اطلاعاتی را از خود درمیآورد که در خود منسجم بهنظر میرسند، اما هیچ مبنای واقعی ندارند. این اتفاق بهویژه در مورد رویدادهای منطقهای، تحولات روز یا زمانی که چندین اطلاعات باید به هم مرتبط شوند، مکرر رخ میدهد.
خطری برای دموکراسی
اما این برای جامعهای که افراد بیشتری اطلاعات خود را از چتباتها میگیرند، به چه معناست؟ پیامدها در حال حاضر نیز ملموس است: اطلاعات نادرست بهسرعت در رسانههای اجتماعی پخش میشوند، زیرا کاربران «واقعیتهای» تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک میگذارند. دانشآموزان و دانشجویان اطلاعات ساختگی را در کارهای خود استفاده میکنند. شهروندان ممکن است بر اساس ادعاهای نادرست، تصمیمات انتخاباتی بگیرند.
نکتهای که بهطور خاص فریبنده است این است که بسیاری از کاربران اصلاً نمیدانند که چتباتها میتوانند توهم ایجاد کنند. آنها فرض میکنند که این فنآوری بهصورت عینی و مبتنی بر واقعیت عمل میکند و این تصور غلط و خطرناکی است. سامانههای هوش مصنوعی اگرچه در شرایط استفاده، خود نسبت به خطاهای احتمالی هشدار میدهند، اما چه کسی آنها را میخواند؟
آسیب به روزنامهنگاری معتبر
مشکل دیگر به اعتبار رسانههای معتبر مربوط میشود. چتباتها بهطور منظم ادعا میکنند که اطلاعات ساختگی آنها از رسانههای معتبر نشأت میگیرد، در حالی که این مراکز خبری هرگز در مورد آن گزارش ندادهاند – یا گزارش کاملاً متفاوتی ارائه کردهاند. کاربران، زمانی که هوش مصنوعی از نام آنها برای اطلاعات نادرست سوء استفاده میکند، اعتماد خود را به منابع معتبر از دست میدهند.
مطالعه «اتحادیه پخش اروپا» چتباتها را با صدها پرسش واقعی در مورد رویدادهای تاریخی، یافتههای علمی و خبرهای روز مورد آزمایش قرار داد. بسته به حوزه موضوعی، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوشهای مصنوعی آزمایششده، بدون خطا عمل نکردند.
...