چگونه باید تهدیدهای هوش مصنوعی علیه بشریت را مهار کرد؟
در مورد اینکه چه چیزی، چگونه و توسط چه کسی باید تحت کنترل قرار گیرد، اختلاف نظر وجود دارد.
اقتصادآنلاین-آرش نصیری؛ «اجلاس ایمنی هوش مصنوعی» که دولت بریتانیا در تاریخ 1 و 2 نوامبر در پارک بلچلی میزبانی خواهد کرد، متشکل از 100 رهبر جهان و مدیران فنی خواهد بود. و سوالی که آنها تلاش خواهند کرد به آن پاسخ دهند احتمالاً روزی وارد کتابهای تاریخ خواهد شد: چگونه میتوان اطمینان حاصل کرد که هوش مصنوعی نه به ابزاری برای سوءاستفادههای کنترل نشده و نه تهدیدی علیه بشریت تبدیل شود. همانطور که جاناتان بلک، یکی از برگزارکنندگان، بیان کرد، برخلاف دیگر بحثهای سیاسی بزرگ، مانند تغییرات آب و هوا، «ارادههای جدی زیادی وجود دارد» اما «ما هنوز نمیدانیم پاسخ درست چیست».
تلاشها برای مهار Ai فراوان است. انتظار میرود کاخ سفید فرمان اجرایی را صادر کند. باشگاه دموکراسیهای ثروتمند G7 در پاییز امسال شروع به تهیه پیشنویس آییننامه رفتاری برای شرکتهای هوش مصنوعی میکند. چین، به نوبه خود، در 18 اکتبر از «ابتکار جهانی حکمرانی هوش مصنوعی» رونمایی کرد.
این حرکت از یک اقتصاد سیاسی غیرمعمول ناشی میشود. برای شروع، ai واقعاً یک فناوری جهانی است. مدلهای زبان بزرگ (llms) که به سرویسهای انسانی مانند Chatgpt کمک میکنند، به راحتی جابجا میشوند. برخی را میتوان روی لپ تاپ اجرا کرد. اگر قوانین نظارتی در برخی از کشورها در حد ناچیزی باقی بمانند، اعمال قوانین سفت و سخت بر روی هوش مصنوعی در سایر کشورها فایدهای نخواهد داشت. مردم ممکن است موافق محدودیت باشند. بر اساس نظرسنجی مرکز تحقیقات پیو، بیش از نیمی از آمریکاییها «بیشتر نگران استفاده از ai هستند تا اینکه هیجانزده باشند».
تأثیرگذاری پکن
رقابت مقرراتی فوریت بیشتری به مسئله میدهد. هدف از این اقدام اروپا تا حدی تقویت نقش این اتحادیه به عنوان تعیینکننده استانداردهای دیجیتال جهانی است. کاخ سفید دوست دارد جلوی این «تأثیرگذاری بروکسل» را بگیرد. نه اتحادیه اروپا و نه آمریکا نمیخواهند از چین عقب بیفتند، چینی که قبلاً چندین قانون Ai را تصویب کرده است. آنها با دولت بریتانیا برای دعوت از چین به اجلاس سران مخالفت کردند.
یکی دیگر از محرکههای دیپلماسی قانونگذاری هوش مصنوعی حتی شگفت آورتر است: خود مدلسازان. در گذشته صنعت فناوری عمدتاً مخالف مقررات بود. اکنون غولهایی مانند آلفابت و مایکروسافت و دردانههای هوش مصنوعی مانند Anthropic و Openai که Chatgpt را ایجاد کرده است، برای آن لابی میکنند. شرکتها نگرانند که رقابت لجامگسیخته با انتشار مدلهایی که میتوانند به راحتی مورد سوء استفاده قرار گیرند یا شروع به شستوشوی مغزی بر اساس مدلهای خود کنند، آنها را مجبور میکند بیاحتیاط عمل کنند.
به عبارت دیگر اراده برای اقدام وجود دارد. هنری فارل از دانشگاه جانز هاپکینز میگوید: آنچه که وجود ندارد، «هیچ اجماع نزدیکی درباره مشکلاتی است که باید بر آن نظارت کنیم، چه رسد به اینکه چگونه باید آنها را اداره کنیم». سه بحث برجسته است. دنیا باید نگران چه چیزی باشد؟ هر قانون باید چه چیزی را هدف قرار دهد؟ و چگونه باید اجرا شوند؟
با اهداف مقررات شروع کنید. تنظیم اینها سخت است زیرا ai به سرعت در حال تکامل است. به سختی روزی میگذرد که یک استارتاپ چیزی جدید ارائه نکرده باشد. حتی توسعه دهندگان llms نیز نمیتوانند با اطمینان بگویند که اینها چه قابلیتهایی را نشان خواهند داد. این امر باعث میشود که آزمایشهایی که میتوانند میزان خطرآفرین بودن آنها را بسنجند، بسیار مهم باشد،چیزی که هنوز بیشتر هنر است تا علم. بدون چنین «ارزیابیهایی» بررسی اینکه آیا یک مدل با قوانینی مطابقت دارد یا خیر دشوار خواهد بود.
شرکتهای فناوری ممکن است از مقررات حمایت کنند، اما میخواهند که این مقررات محدود باشد و فقط خطرات شدید را هدف قرار دهد. در جلسه استماع سنا در واشنگتن در ماه جولای، داریو آمودی، مدیر اجرایی آنتروپیک، هشدار داد که مدلهای هوش مصنوعی در چند سال آینده قادر خواهند بود تمام اطلاعات مورد نیاز برای ساخت سلاحهای زیستی را ارائه دهند و «بازیگران زیادی را قادر به انجام حملات بیولوژیکی در مقیاس بزرگ» کنند. پیشبینیهای وحشتناک مشابهی در مورد سلاحهای سایبری انجام میشود. در اوایل این ماه، گری جنسلر، رئیس کمیسیون بورس و اوراق بهادار آمریکا، پیشبینی کرد که یک بحران مالی مهندسی شده بدون مداخله سریع «تقریباً اجتنابناپذیر» است.
برخی دیگر استدلال میکنند که این خطرات سوداگرانه توجه را از تهدیدهای دیگر، مانند تضعیف فرآیند دموکراتیک، منحرف میکند. در جلسه قبلی سنا، گری مارکوس، یکی از افراد بدبین مشهور، شهادت خود را با بخشی از اخبار فوری که توسط GPT-4، مدل برتر Openai نوشته شده بود، آغاز کرد. به طور قانعکنندهای ادعا شده بود که بخشهایی از کنگره «به طور مخفیانه توسط موجودات فرازمینی دستکاری شده است». آقای مارکوس گفت: «همه ما باید عمیقاً نگران سیستمهایی باشیم که میتوانند بهراحتی با هم ترکیب شوند».
بحث در مورد اینکه دقیقاً چه چیزی باید تنظیم شود، آسانتر نخواهد بود. مایکروسافت، در میان دیگران، خواستار یک نهاد صدور مجوز است که شرکتها را ملزم میکند مدلهایی را ثبت کنند که از آستانههای عملکردی خاص فراتر میروند.
اکثر شرکتها نیز موافق هستند که این برنامههای مدلها هستند، نه خود مدلها، که باید تنظیم شوند. نرم افزار آفیس؟ قوانین سبک. بهداشت و درمان AI؟ قوانین سختگیرانه. تشخیص چهره در فضاهای عمومی؟ احتمالاً ممنوع خواهد بود. مزیت چنین مقررات مبتنی بر کاربرد این است که قوانین موجود عمدتاً کفایت میکند. توسعه دهندگان Ai هشدار میدهند که قوانین گستردهتر و مداخلهجویانهتر، نوآوری را کند میکند.
اتحادیه اروپا اکنون انگشت بر دهان است که آیا خود مدلها نیاز به نظارت دارند یا خیر. پارلمان اروپا از سازندگان مدل میخواهد که llms را برای تأثیر بالقوه بر همه چیز از سلامت انسان گرفته تا حقوق بشر آزمایش کنند. اصرار دارد که اطلاعاتی در مورد دادههایی که مدلها بر اساس آنها آموزش داده شدهاند به دست آورد. کانادا در کارهای پارلمانی خود یک «قانون هوش مصنوعی و داده» سختتر دارد. برزیل در حال بحث در مورد چیزی مشابه است. در آمریکا، انتظار میرود فرمان اجرایی آتی جو بایدن نیز شامل قوانین سختگیرانهتری باشد. حتی بریتانیا نیز ممکن است رویکرد «عدم مداخله» خود را بازبینی کند.
این مقررات سختتر تغییری از آییننامههای رفتاری غیرالزامآور است که تاکنون رویکرد ارجح بوده است. تابستان گذشته، کاخ سفید درباره مجموعهای از «تعهدات داوطلبانه» مذاکره کرد که اکنون 15 مدلساز آن را امضا کردهاند. شرکتها موافقت کردند که مدلهای خود را قبل از انتشار به صورت داخلی و خارجی مورد آزمایش قرار دهند و اطلاعاتی را درباره نحوه مدیریت خود در زمینه ریسکهای هوش مصنوعی به اشتراک بگذارند.
سپس این سؤال مطرح میشود که چه کسی باید تنظیم قوانین را انجام دهد. آمریکا و بریتانیا فکر میکنند که سازمانهای دولتی موجود میتوانند بیشتر کار را انجام دهند. اتحادیه اروپا میخواهد یک نهاد نظارتی جدید ایجاد کند. در سطح بینالمللی، تعداد کمی از مدیران فناوری اکنون خواستار ایجاد چیزی شبیه به هیئت بیندولتی تغییرات آب و هوا (ipcc) هستند، که سازمان ملل وظیفه دارد در جریان تحقیقات در مورد گرمایش جهانی و توسعه راههایی برای سنجش تأثیر آن باشد.
با توجه به همه این سؤالات، جای تعجب نیست که سازماندهندگان اجلاس لندن چندان مصمم به نظر نمیرسند. آقای بلک گفت: این باید عمدتاً به عنوان یک «مکالمه» در نظر گرفته شود. با این حال،این امیدواری وجود دارد که نتایج ملموسی به همراه داشته باشد، به ویژه در روز دوم که تنها 20 نفر از مهمترین رهبران شرکتها و جهان در نشست باقی میمانند. آنها هنوز میتوانند تعهدات داوطلبانه کاخ سفید را تأیید کنند و ایجاد یک ipcc برای AI یا حتی جهانیسازی برنامه مدیریت ریسک هوش مصنوعی بریتانیا را توصیه کنند.
چنین نتیجهای برای دولت بریتانیا موفقیت محسوب میشود. همچنین به تلاشهای رسمیتر در زمینه حکمرانی جهانی هوش مصنوعی، مانند آییننامه رفتاری G7، سرعت میبخشد. به این ترتیب، اولین قدم مفید خواهد بود اما آخرین نخواهد بود.