x
۰۸ / آبان / ۱۴۰۲ ۰۹:۰۰
چالش جدید دولت‌ها برای نظارت بر هوش مصنوعی؛

چگونه باید تهدیدهای هوش مصنوعی علیه بشریت را مهار کرد؟

چگونه باید تهدیدهای هوش مصنوعی علیه بشریت را مهار کرد؟

در مورد اینکه چه چیزی، چگونه و توسط چه کسی باید تحت کنترل قرار گیرد، اختلاف نظر وجود دارد.

کد خبر: ۸۰۵۷۷۹
آرین موتور

اقتصادآنلاین-آرش نصیری؛  «اجلاس ایمنی هوش مصنوعی» که دولت بریتانیا در تاریخ 1 و 2 نوامبر در پارک بلچلی میزبانی خواهد کرد، متشکل از 100 رهبر جهان و مدیران فنی خواهد بود. و سوالی که آن‌ها تلاش خواهند کرد به آن پاسخ دهند احتمالاً روزی وارد کتاب‌های تاریخ خواهد شد: چگونه می‌توان اطمینان حاصل کرد که هوش مصنوعی نه به ابزاری برای سوءاستفاده‌های کنترل نشده و نه تهدیدی علیه بشریت تبدیل شود. همانطور که جاناتان بلک، یکی از برگزارکنندگان، بیان کرد، برخلاف دیگر بحث‌های سیاسی بزرگ، مانند تغییرات آب و هوا، «اراده‌های جدی زیادی وجود دارد» اما «ما هنوز نمی‌دانیم پاسخ درست چیست».

تلاش‌ها برای مهار Ai فراوان است. انتظار می‌رود کاخ سفید فرمان اجرایی را صادر کند. باشگاه دموکراسی‌های ثروتمند G7 در پاییز امسال شروع به تهیه پیش‌نویس آیین‌نامه رفتاری برای شرکت‌های هوش مصنوعی می‌کند. چین، به نوبه خود، در 18 اکتبر از «ابتکار جهانی حکمرانی هوش مصنوعی» رونمایی کرد.

این حرکت از یک اقتصاد سیاسی غیرمعمول ناشی می‌شود. برای شروع، ai واقعاً یک فناوری جهانی است. مدل‌های زبان بزرگ (llms) که به سرویس‌های انسانی مانند Chatgpt کمک می‌کنند، به راحتی جابجا می‌شوند. برخی را می‌توان روی لپ تاپ اجرا کرد. اگر قوانین نظارتی در برخی از کشورها در حد ناچیزی باقی بمانند، اعمال قوانین سفت و سخت بر روی هوش مصنوعی در سایر کشورها فایده‌ای نخواهد داشت. مردم ممکن است موافق محدودیت باشند. بر اساس نظرسنجی مرکز تحقیقات پیو، بیش از نیمی از آمریکایی‌ها «بیشتر نگران استفاده از ai هستند تا اینکه هیجان‌زده باشند».

تأثیرگذاری پکن

رقابت مقرراتی فوریت بیشتری به مسئله می‌دهد. هدف از این اقدام اروپا تا حدی تقویت نقش این اتحادیه به عنوان تعیین‌کننده استانداردهای دیجیتال جهانی است. کاخ سفید دوست دارد جلوی این «تأثیرگذاری بروکسل» را بگیرد. نه اتحادیه اروپا و نه آمریکا نمی‌خواهند از چین عقب بیفتند، چینی که قبلاً چندین قانون Ai را تصویب کرده است. آن‌ها با دولت بریتانیا برای دعوت از چین به اجلاس سران مخالفت کردند.

یکی دیگر از محرکه‌های دیپلماسی قانون‌گذاری هوش مصنوعی حتی شگفت آورتر است: خود مدل‌سازان. در گذشته صنعت فناوری عمدتاً مخالف مقررات بود. اکنون غول‌هایی مانند آلفابت و مایکروسافت و دردانه‌های هوش مصنوعی مانند Anthropic و Openai که Chatgpt را ایجاد کرده‌ است، برای آن لابی می‌کنند. شرکت‌ها نگرانند که رقابت لجام‌گسیخته با انتشار مدل‌هایی که می‌توانند به راحتی مورد سوء استفاده قرار گیرند یا شروع به شست‌وشوی مغزی بر اساس مدل‌های خود کنند، آنها را مجبور می‌کند بی‌احتیاط عمل کنند.

به عبارت دیگر اراده برای اقدام وجود دارد. هنری فارل از دانشگاه جانز هاپکینز می‌گوید: آنچه که وجود ندارد، «هیچ اجماع نزدیکی درباره مشکلاتی است که باید بر آن نظارت کنیم، چه رسد به اینکه چگونه باید آن‌ها را اداره کنیم». سه بحث برجسته است. دنیا باید نگران چه چیزی باشد؟ هر قانون باید چه چیزی را هدف قرار دهد؟ و چگونه باید اجرا شوند؟

با اهداف مقررات شروع کنید. تنظیم این‌ها سخت است زیرا ai به سرعت در حال تکامل است. به سختی روزی می‌گذرد که یک استارتاپ چیزی جدید ارائه نکرده باشد. حتی توسعه دهندگان llms نیز نمی‌توانند با اطمینان بگویند که این‌ها چه قابلیت‌هایی را نشان خواهند داد. این امر باعث می‌شود که آزمایش‌هایی که می‌توانند میزان خطرآفرین بودن آن‌ها را بسنجند، بسیار مهم باشد،چیزی که هنوز بیشتر هنر است تا علم. بدون چنین «ارزیابی‌هایی» بررسی اینکه آیا یک مدل با قوانینی مطابقت دارد یا خیر دشوار خواهد بود.

شرکت‌های فناوری ممکن است از مقررات حمایت کنند، اما می‌خواهند که این مقررات محدود باشد و فقط خطرات شدید را هدف قرار دهد. در جلسه استماع سنا در واشنگتن در ماه جولای، داریو آمودی، مدیر اجرایی آنتروپیک، هشدار داد که مدل‌های هوش مصنوعی در چند سال آینده قادر خواهند بود تمام اطلاعات مورد نیاز برای ساخت سلاح‌های زیستی را ارائه دهند و «بازیگران زیادی را قادر به انجام حملات بیولوژیکی در مقیاس بزرگ» کنند. پیش‌بینی‌های وحشتناک مشابهی در مورد سلاح‌های سایبری انجام می‌شود. در اوایل این ماه، گری جنسلر، رئیس کمیسیون بورس و اوراق بهادار آمریکا، پیش‌بینی کرد که یک بحران مالی مهندسی شده بدون مداخله سریع «تقریباً اجتناب‌ناپذیر» است.

برخی دیگر استدلال می‌کنند که این خطرات سوداگرانه توجه را از تهدیدهای دیگر، مانند تضعیف فرآیند دموکراتیک، منحرف می‌کند. در جلسه قبلی سنا، گری مارکوس، یکی از افراد بدبین مشهور، شهادت خود را با بخشی از اخبار فوری که توسط GPT-4، مدل برتر Openai نوشته شده بود، آغاز کرد. به طور قانع‌کننده‌ای ادعا شده بود که بخش‌هایی از کنگره «به طور مخفیانه توسط موجودات فرازمینی دستکاری شده است». آقای مارکوس گفت: «همه ما باید عمیقاً نگران سیستم‌هایی باشیم که می‌توانند به‌راحتی با هم ترکیب شوند».

بحث در مورد اینکه دقیقاً چه چیزی باید تنظیم شود، آسان‌تر نخواهد بود. مایکروسافت، در میان دیگران، خواستار یک نهاد صدور مجوز است که شرکت‌ها را ملزم می‌کند مدل‌هایی را ثبت کنند که از آستانه‌های عملکردی خاص فراتر می‌روند.

اکثر شرکت‌ها نیز موافق هستند که این برنامه‌های مدل‌ها هستند، نه خود مدل‌ها، که باید تنظیم شوند. نرم افزار آفیس؟ قوانین سبک. بهداشت و درمان AI؟ قوانین سختگیرانه. تشخیص چهره در فضاهای عمومی؟ احتمالاً ممنوع خواهد بود. مزیت چنین مقررات مبتنی بر کاربرد این است که قوانین موجود عمدتاً کفایت می‌کند. توسعه دهندگان Ai هشدار می‌دهند که قوانین گسترده‌تر و مداخله‌جویانه‌تر، نوآوری را کند می‌کند.

اتحادیه اروپا اکنون انگشت بر دهان است که آیا خود مدل‌ها نیاز به نظارت دارند یا خیر. پارلمان اروپا از سازندگان مدل می‌خواهد که llms را برای تأثیر بالقوه بر همه چیز از سلامت انسان گرفته تا حقوق بشر آزمایش کنند. اصرار دارد که اطلاعاتی در مورد داده‌هایی که مدل‌ها بر اساس آن‌ها آموزش داده شده‌اند به دست آورد. کانادا در کارهای پارلمانی خود یک «قانون هوش مصنوعی و داده» سخت‌تر دارد. برزیل در حال بحث در مورد چیزی مشابه است. در آمریکا، انتظار می‌رود فرمان اجرایی آتی جو بایدن نیز شامل قوانین سخت‌گیرانه‌تری باشد. حتی بریتانیا نیز ممکن است رویکرد  «عدم مداخله» خود را بازبینی کند.

این مقررات سخت‌تر تغییری از آیین‌نامه‌های رفتاری غیرالزام‌آور است که تاکنون رویکرد ارجح بوده است. تابستان گذشته، کاخ سفید درباره مجموعه‌ای از «تعهدات داوطلبانه» مذاکره کرد که اکنون 15 مدل‌ساز آن را امضا کرده‌اند. شرکت‌ها موافقت کردند که مدل‌های خود را قبل از انتشار به صورت داخلی و خارجی مورد آزمایش قرار دهند و اطلاعاتی را درباره نحوه مدیریت خود در زمینه ریسک‌های هوش مصنوعی به اشتراک بگذارند.

سپس این سؤال مطرح می‌شود که چه کسی باید تنظیم قوانین را انجام دهد. آمریکا و بریتانیا فکر می‌کنند که سازمان‌های دولتی موجود می‌توانند بیشتر کار را انجام دهند. اتحادیه اروپا می‌خواهد یک نهاد نظارتی جدید ایجاد کند. در سطح بین‌المللی، تعداد کمی از مدیران فناوری اکنون خواستار ایجاد چیزی شبیه به هیئت بین‌دولتی تغییرات آب و هوا (ipcc) هستند، که سازمان ملل وظیفه دارد در جریان تحقیقات در مورد گرمایش جهانی و توسعه راه‌هایی برای سنجش تأثیر آن باشد.

با توجه به همه این سؤالات، جای تعجب نیست که سازمان‌دهندگان اجلاس لندن چندان مصمم به نظر نمی‌رسند. آقای بلک گفت: این باید عمدتاً به عنوان یک «مکالمه» در نظر گرفته شود. با این حال،این امیدواری وجود دارد که نتایج ملموسی به همراه داشته باشد، به ویژه در روز دوم که تنها 20 نفر از مهم‌ترین رهبران شرکت‌ها و جهان در نشست باقی می‌مانند. آن‌ها هنوز می‌توانند تعهدات داوطلبانه کاخ سفید را تأیید کنند و ایجاد یک ipcc برای AI یا حتی جهانی‌سازی برنامه مدیریت ریسک هوش مصنوعی بریتانیا را توصیه کنند.

چنین نتیجه‌ای برای دولت بریتانیا موفقیت محسوب می‌شود. همچنین به تلاش‌های رسمی‌تر در زمینه حکمرانی جهانی هوش مصنوعی، مانند آیین‌نامه رفتاری G7، سرعت می‌بخشد. به این ترتیب، اولین قدم مفید خواهد بود اما آخرین نخواهد بود.

نوبیتکس
برچسب ها:
هوش مصنوعی
ارسال نظرات
x