֎ AI و متاورس

چت‌بات‌های هوش مصنوعی به روایت بی‌بی‌سی: تحریف اخبار و چالش‌های دقت اطلاعات

یک مطالعه جدید بی‌بی‌سی نشان داده است که چت‌بات‌های هوش مصنوعی مانند ChatGPT، Gemini، Copilot و Perplexity در خلاصه‌سازی اخبار با مشکلات جدی مواجه هستند. این تحقیق نشان داد که ۵۱ درصد از پاسخ‌های ارائه‌شده توسط این چت‌بات‌ها دارای ایرادات قابل توجه بوده و ۱۹ درصد از پاسخ‌هایی که به محتوای بی‌بی‌سی اشاره داشتند، شامل اشتباهات بزرگ و تحریف اطلاعات بودند.

به گزارش فناور، تحقیقی از بی‌بی‌سی نشان می‌دهد که چت‌بات‌های هوش مصنوعی در خلاصه‌سازی اخبار با مشکلات جدی دقت و تحریف مواجه هستند. این مطالعه که توانایی‌های ChatGPT، Google Gemini، Microsoft Copilot و Perplexity را بررسی کرد، نشان داد که بیش از نیمی از خروجی‌های تولید شده توسط این چت‌بات‌ها دارای “مسائل قابل توجهی” هستند.

در این تحقیق، بی‌بی‌سی از چت‌بات‌ها خواست تا خلاصه‌هایی از ۱۰۰ مقاله خبری ارائه دهند و سپس خبرنگاران پاسخ‌های آن‌ها را بررسی کردند. نتایج نشان داد که ۵۱ درصد از پاسخ‌ها دارای مشکلات عمده بودند و ۱۹ درصد از پاسخ‌هایی که به محتوای بی‌بی‌سی اشاره داشتند شامل اطلاعات نادرست، اعداد و تاریخ‌ها بودند. همچنین، ۱۳ درصد از نقل قول‌ها از بی‌بی‌سی یا تغییر یافته بودند یا در مقاله مورد اشاره وجود نداشتند.

این مطالعه به مثال‌هایی اشاره کرد، از جمله اینکه Gemini به اشتباه اعلام کرد که خدمات بهداشت ملی بریتانیا (NHS) “مشاوره می‌دهد که مردم نباید به ویپینگ روی آورند” در حالی که NHS در واقع ویپینگ را به عنوان روشی برای ترک سیگار توصیه می‌کند. همچنین، ChatGPT در دسامبر ۲۰۲۴ ادعا کرد که اسماعیل هنیه بخشی از رهبری حماس است، در حالی که او در جولای ۲۰۲۴ ترور شده بود.

به طور کلی، این تحقیق نشان داد که پاسخ‌های Gemini “بیشترین نگرانی‌ها را برانگیخته” است و ۴۶ درصد آن‌ها “مشکلات جدی دقت” داشتند. دبورا ترنس، مدیرعامل بی‌بی‌سی نیوز و امور جاری، خواستار توجه شرکت‌های فناوری به این مشکلات شد و هشدار داد که “چقدر طول می‌کشد تا یک عنوان تحریف شده توسط AI باعث آسیب واقعی شود؟”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا