
هشدار دیپمایند: هوش جامع مصنوعی ممکن است تا ۲۰۳۰ از راه برسد و بشر را نابود کند

گوگل دیپمایند در مقالهای بلندبالا نسبت به ظهور قریبالوقوع هوش جامع مصنوعی (AGI) هشدار داده و میگوید این فناوری میتواند تا سال ۲۰۳۰ به سطح توانایی انسانی برسد و حتی بشریت را در معرض نابودی قرار دهد. این در حالی است که بسیاری از کارشناسان، مفهوم AGI را هنوز مبهم، غیرقابلتعریف و ارزیابیناپذیر میدانند.
به گزارش اقتصادآنلاین، شرکت دیپمایند گوگل، یکی از پیشروترین نهادهای فعال در حوزه هوش مصنوعی، در مقالهای ۱۴۵ صفحهای به بررسی خطرات بالقوه هوش جامع مصنوعی (AGI) پرداخته و اعلام کرده است که این فناوری میتواند ظرف پنج سال آینده ظهور کند و در صورت نبود کنترل، آسیبهای شدیدی به بشریت وارد آورد. هرچند در این گزارش، جزئیاتی از سناریوهای نابودی ارائه نشده، اما بهوضوح به تهدیداتی اشاره شده که میتوانند موجودیت انسان را برای همیشه به خطر بیندازند.
این مقاله که یکی از نویسندگان آن «شین لگ»، همبنیانگذار دیپمایند است، مجموعهای از تهدیدها را در چهار دسته اصلی دستهبندی میکند: سوءاستفاده (استفاده عمدی از AI برای آسیبرساندن)، ناهماهنگی (رفتارهای مخرب ناخواسته)، اشتباهات (نقص در طراحی و آموزش مدلها)، و خطرات ساختاری (تعارض منافع میان کشورها، گروهها یا حتی میان خود سیستمهای AI). دیپمایند هشدار میدهد که این تهدیدات میتوانند با توسعه سریع AGI از کنترل خارج شوند.
«دمیس هاسابیس»، مدیرعامل دیپمایند، نیز پیشتر گفته بود که انتظار دارد AGI بین سالهای ۲۰۲۵ تا ۲۰۳۰ از راه برسد. بهگفته او، AGI میتواند نهفقط به سطح هوش انسان برسد، بلکه با سرعت خود را ارتقا دهد و از مرزهای شناخت انسانی فراتر برود.
با این حال، نگاههای تردیدآمیز نیز کم نیست. «هایدی خلاف»، دانشمند ارشد مؤسسه AI Now، در گفتوگو با تککرانچ تأکید کرده که AGI هنوز تعریف روشنی ندارد و به همین دلیل، ارزیابی علمی خطرات آن در حال حاضر دشوار و تا حدی غیرواقعگرایانه است. از نظر او، پیش از آنکه درباره تهدیدهای احتمالی AGI بحث شود، باید اصلاً مشخص شود که با چه چیزی طرف هستیم.
در همین راستا، «گری مارکوس»، استاد بازنشسته علوم شناختی دانشگاه نیویورک نیز تأکید میکند که هوش مصنوعی فعلی، که عمدتاً بر پایه مدلهای زبانی بزرگ (LLM) ساخته شده، فاصله زیادی با هوش انسانی دارد. بهویژه از نظر توانایی یادگیری با دادههای کم، درک موقعیتهای پیچیده، و استدلالگری مبتنیبر زمینه، AI هنوز توان رقابت با مغز انسان را ندارد.
منتقدان میگویند بزرگترین مشکل گزارش دیپمایند، نه اغراق در خطر، بلکه ابهام در ماهیت خطر است. از دید آنها، خطر واقعی نه در خود AGI، بلکه در سیاستگذاری عجولانه، ترسمحور و فاقد مبنای علمی است که میتواند مسیر توسعه فناوری را منحرف کند. با این حال، بسیاری نیز معتقدند هشدار زودهنگام، ولو بر مبنای فرضیههایی مبهم، بهتر از غافلگیری در مواجهه با سیستمی است که شاید دیگر نتوان آن را خاموش کرد.
آیا واقعاً AGI تا سال ۲۰۳۰ از راه میرسد؟ پاسخ این پرسش هنوز در هالهای از ابهام است. اما روشن است که مسیر توسعه هوش مصنوعی دیگر بیخطر و بدون بحث نیست. دیپمایند با انتشار این گزارش، توپ را به زمین جامعه علمی، سیاستگذاران و فعالان فناوری انداخته است تا تصمیم بگیرند برای آیندهای با هوش فراتر از انسان، آمادهاند یا نه؟