x
۱۲ / فروردين / ۱۴۰۲ ۱۹:۲۵

نامه ایلان ماسک برای توقف توسعه هوش مصنوعی جنجال‌ به پا کرد!

نامه ایلان ماسک برای توقف توسعه هوش مصنوعی جنجال‌ به پا کرد!

برخی از فعالان حوزه فناوری می‌گویند اصلاً چنین نامه‌ای را امضا نکرده‌اند و برخی محققان به‌خاطر استناد به تحقیقاتشان، ابراز ناخشنودی کرده‌اند.

کد خبر: ۷۰۹۱۹۶
آرین موتور

به گزارش اقتصاد آنلاین، چند روز پیش نامه‌ای سرگشاده برای توقف توسعه هوش مصنوعی منتشر شد که آن را افرادی مانند ایلان ماسک، مدیرعامل تسلا و توییتر و استیو وزنیاک، هم‌بنیان‌گذار اپل، امضا کرده بودند. البته شمار افرادی که آن را امضا کرده بودند، از ۱۰۰۰ نفر عبور کرد. اما حالا شماری از افراد می‌گویند که اصلاً آن را امضا نکرده‌اند و برخی متخصصان هم استفاده از تحقیقات خود در چنین نامه‌ای را محکوم کرده‌اند.

در این نامه که سروصدای زیادی بپا کرد، فعالان حوزه فناوری از آزمایشگاه‌ها و شرکت‌های فعال در حوزه هوش مصنوعی خواسته‌اند که توسعه سیستم‌های قدرتمندتر از مدل هوش مصنوعی GPT-۴ را متوقف کنند. تعدادی از مهندسان آمازون، دیپ‌مایند، گوگل، متا و مایکروسافت هم این نامه را امضا کرده‌اند.

مدل GPT-۴ که اخیراً از سوی شرکت OpenAI معرفی شده است، می‌تواند مکالماتی مشابه با انسان ایجاد کند و حتی قادر به تشخیص تصاویر است. البته این مدل کاربردهای مختلف دیگری هم دارد؛ مانند نوشتن آهنگ یا خلاصه‌کردن متون طولانی. طبق ادعای نامه فعالان دنیای فناوری، این سیستم‌های هوش مصنوعی می‌توانند خطری بزرگ برای بشریت باشند:

«متخصصان مستقل و آزمایشگاه‌های توسعه‌دهنده هوش مصنوعی باید از این مکث برای توسعه مشترک مجموعه‌ای از پروتکل‌های امنیتی برای توسعه و طراحی هوش مصنوعی استفاده کنند؛ پروتکل‌هایی که باید شدیداً توسط کارشناسان خارجی بررسی و نظارت شوند.»

انتقاد از انتشار نامه و امضاهای جعلی

این نامه به تلاش اندیشکده Future of Life institute یا FLI نوشته شده و در آن به ۱۲ تحقیق مختلف از متخصصان شامل اساتید و مهندسان سابق OpenAI، گوگل و دیپ‌مایند استناد شده است. اما حالا به گزارش گاردین، ۴ متخصص که به تحقیق آن‌ها در این نامه استناد شده، نسبت به ادعاهای مطرح‌شده، ابراز نگرانی کرده‌اند.

علاوه بر این موضوع، نامه منتشرشده فاقد پروتکل‌های تأییدیه برای امضاها بوده و حالا مشخص شده است که برخی افراد اصلاً آن را امضا نکرده‌اند. از میان این افراد می‌توان به «شی جین‌پینگ» و «یان لی‌کان»، دانشمند ارشد هوش مصنوعی متا اشاره کرد. لی‌کان در توییتر رسماً اعلام کرده است که این نامه را امضا نکرده و همچنین از آن حمایت نمی‌کند.

منتقدان نامه اخیر می‌گویند FLI که عمدتاً توسط بنیاد ماسک تأمین مالی می‌شود، به‌جای اینکه به مشکلات اساسی هوش مصنوعی بپردازد، به سراغ سناریوهای آخرالزمانی خیالی رفته است. از برخی مشکلات اساسی هوش مصنوعی می‌توان به رفتارهای نژادپرستانه و جنسیت‌زده اشاره کرد.

«مارگارت میچل»، یکی از مدیران سابق بخش هوش مصنوعی گوگل و دانشمند کنونی Hugging Face که مقاله‌اش مورد استناد نامه اخیر قرار گرفته است، از آن انتقاد کرده و گفته است که مشخص نیست منظور از نویسندگان نامه از «قدرتمندتر از GPT-۴» چه بوده است:

«این نامه مجموعه‌ای از اولویت‌ها و روایت‌هایی درباره هوش مصنوعی را بیان می‌کند که به نفع حامیان FLI است. نادیده‌گرفتن آسیب‌های کنونی یک امتیاز محسوب می‌شود که برخی از محققان از آن بهره‌ای نمی‌برند.»

یکی دیگر از محققان به نام «شیری دوری هاکوهن» که درباره تأثیرگذاری استفاده کنونی از سیستم‌های هوش مصنوعی روی تصمیم‌گیری‌ها درزمینه تغییرات اقلیمی، جنگ‌های هسته‌ای و دیگر تهدیدات وجودی، مقاله نوشته است، می‌گوید هوش مصنوعی برای اینکه چنین خطراتی را افزایش دهد، نیازی به دستیابی به هوش در سطح انسان ندارد.

در واکنش به این انتقادها، «مکس تگمارک»، رئیس FLI، می‌گوید که باید خطرات بلندمدت و کوتاه‌مدت هوش مصنوعی جدی گرفته شوند: «وقتی به فردی در نامه استناد می‌کنیم، یعنی آن فرد جمله موردنظر را تأیید می‌کند و نه کل نامه را. علاوه‌براین، استناد به این فرد به‌معنای آن نیست که ما همه تفکرات او را تأیید می‌کنیم.»

نوبیتکس
ارسال نظرات
x