چتباتهای هوش مصنوعی به روایت بیبیسی: تحریف اخبار و چالشهای دقت اطلاعات
یک مطالعه جدید بیبیسی نشان داده است که چتباتهای هوش مصنوعی مانند ChatGPT، Gemini، Copilot و Perplexity در خلاصهسازی اخبار با مشکلات جدی مواجه هستند. این تحقیق نشان داد که ۵۱ درصد از پاسخهای ارائهشده توسط این چتباتها دارای ایرادات قابل توجه بوده و ۱۹ درصد از پاسخهایی که به محتوای بیبیسی اشاره داشتند، شامل اشتباهات بزرگ و تحریف اطلاعات بودند.

به گزارش فناور، تحقیقی از بیبیسی نشان میدهد که چتباتهای هوش مصنوعی در خلاصهسازی اخبار با مشکلات جدی دقت و تحریف مواجه هستند. این مطالعه که تواناییهای ChatGPT، Google Gemini، Microsoft Copilot و Perplexity را بررسی کرد، نشان داد که بیش از نیمی از خروجیهای تولید شده توسط این چتباتها دارای “مسائل قابل توجهی” هستند.
در این تحقیق، بیبیسی از چتباتها خواست تا خلاصههایی از ۱۰۰ مقاله خبری ارائه دهند و سپس خبرنگاران پاسخهای آنها را بررسی کردند. نتایج نشان داد که ۵۱ درصد از پاسخها دارای مشکلات عمده بودند و ۱۹ درصد از پاسخهایی که به محتوای بیبیسی اشاره داشتند شامل اطلاعات نادرست، اعداد و تاریخها بودند. همچنین، ۱۳ درصد از نقل قولها از بیبیسی یا تغییر یافته بودند یا در مقاله مورد اشاره وجود نداشتند.
این مطالعه به مثالهایی اشاره کرد، از جمله اینکه Gemini به اشتباه اعلام کرد که خدمات بهداشت ملی بریتانیا (NHS) “مشاوره میدهد که مردم نباید به ویپینگ روی آورند” در حالی که NHS در واقع ویپینگ را به عنوان روشی برای ترک سیگار توصیه میکند. همچنین، ChatGPT در دسامبر ۲۰۲۴ ادعا کرد که اسماعیل هنیه بخشی از رهبری حماس است، در حالی که او در جولای ۲۰۲۴ ترور شده بود.
به طور کلی، این تحقیق نشان داد که پاسخهای Gemini “بیشترین نگرانیها را برانگیخته” است و ۴۶ درصد آنها “مشکلات جدی دقت” داشتند. دبورا ترنس، مدیرعامل بیبیسی نیوز و امور جاری، خواستار توجه شرکتهای فناوری به این مشکلات شد و هشدار داد که “چقدر طول میکشد تا یک عنوان تحریف شده توسط AI باعث آسیب واقعی شود؟”