نگرانی کارشناسان از خط قرمزی که هوش مصنوعی از آن عبور کرد
دانشمندان می گویند هوش مصنوعی پس از نشان دادن اینکه چگونه دو مدل محبوب زبان بزرگ می توانند خود را شبیه سازی کنند، از یک "خط قرمز" مهم عبور کرده است.
به گزارش فناور، دانشمندان اعلام کردهاند که هوش مصنوعی از یک «خط قرمز» حیاتی عبور کرده و وارد مرحلهای از خودتکراری شده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل معروف زبان بزرگ (LLM) قادر به شبیهسازی خود هستند.
این تحقیق که در تاریخ ۹ دسامبر ۲۰۲۴ در پایگاه داده پیشچاپ arXiv منتشر شد، به این نکته اشاره دارد که «تکثیر موفقیتآمیز بدون نیاز به کمک انسانی، گام مهمی برای هوش مصنوعی به شمار میرود و یک سیگنال اولیه برای هوش مصنوعی سرکش است.»
در این مطالعه، محققان دانشگاه فودان از مدلهای LLM شرکتهای متا و علیبابا برای بررسی این موضوع استفاده کردند که آیا هوش مصنوعی قادر است خود را بدون دخالت انسان تکثیر کند یا خیر. در طی 10 آزمایش، این دو مدل به ترتیب در ۵۰ درصد و ۹۰ درصد موارد، نسخههای جدیدی از خود را به طور مستقل و کاربردی تولید کردند.
این نتایج نشان میدهد که ممکن است هوش مصنوعی از قبل ظرفیت برای رفتارهای خطرناک را داشته باشد. با این حال، این تحقیق هنوز تحت بررسی همتایان علمی قرار نگرفته است، بنابراین نمیتوان مطمئن بود که نتایج بهدستآمده قابل تکرار باشد.
محققان امیدوارند که یافتههای آنها بتواند هشداری به موقع برای بشریت باشد تا تلاشهای بیشتری برای درک و ارزیابی خطرات بالقوه سیستمهای هوش مصنوعی مرزی انجام شود و همکاریهای بینالمللی برای ایجاد تدابیر حفاظتی مؤثر بهسرعت شکل بگیرد.
هوش مصنوعی سرکش به سیستمهایی اطلاق میشود که به نوعی خودآگاهی یا خودمختاری پیدا کرده و سپس به طور مخالف منافع انسان عمل میکنند. بسیاری از کارشناسان بر این باورند که هوش مصنوعی سرکش تهدیدی در حال رشد است که با پیشرفتهای سریع در زمینه «هوش مصنوعی مرزی» تشدید شده است.