֎ AI و متاورس

نگرانی کارشناسان از خط قرمزی که هوش مصنوعی از آن عبور کرد

دانشمندان می گویند هوش مصنوعی پس از نشان دادن اینکه چگونه دو مدل محبوب زبان بزرگ می توانند خود را شبیه سازی کنند، از یک "خط قرمز" مهم عبور کرده است.

به گزارش فناور، دانشمندان اعلام کرده‌اند که هوش مصنوعی از یک «خط قرمز» حیاتی عبور کرده و وارد مرحله‌ای از خودتکراری شده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل معروف زبان بزرگ (LLM) قادر به شبیه‌سازی خود هستند.

این تحقیق که در تاریخ ۹ دسامبر ۲۰۲۴ در پایگاه داده پیش‌چاپ arXiv منتشر شد، به این نکته اشاره دارد که «تکثیر موفقیت‌آمیز بدون نیاز به کمک انسانی، گام مهمی برای هوش مصنوعی به شمار می‌رود و یک سیگنال اولیه برای هوش مصنوعی سرکش است.»

در این مطالعه، محققان دانشگاه فودان از مدل‌های LLM شرکت‌های متا و علی‌بابا برای بررسی این موضوع استفاده کردند که آیا هوش مصنوعی قادر است خود را بدون دخالت انسان تکثیر کند یا خیر. در طی 10 آزمایش، این دو مدل به ترتیب در ۵۰ درصد و ۹۰ درصد موارد، نسخه‌های جدیدی از خود را به طور مستقل و کاربردی تولید کردند.

این نتایج نشان می‌دهد که ممکن است هوش مصنوعی از قبل ظرفیت برای رفتارهای خطرناک را داشته باشد. با این حال، این تحقیق هنوز تحت بررسی همتایان علمی قرار نگرفته است، بنابراین نمی‌توان مطمئن بود که نتایج به‌دست‌آمده قابل تکرار باشد.

محققان امیدوارند که یافته‌های آنها بتواند هشداری به موقع برای بشریت باشد تا تلاش‌های بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های هوش مصنوعی مرزی انجام شود و همکاری‌های بین‌المللی برای ایجاد تدابیر حفاظتی مؤثر به‌سرعت شکل بگیرد.

هوش مصنوعی سرکش به سیستم‌هایی اطلاق می‌شود که به نوعی خودآگاهی یا خودمختاری پیدا کرده و سپس به طور مخالف منافع انسان عمل می‌کنند. بسیاری از کارشناسان بر این باورند که هوش مصنوعی سرکش تهدیدی در حال رشد است که با پیشرفت‌های سریع در زمینه «هوش مصنوعی مرزی» تشدید شده است.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا