x
۱۰ / شهريور / ۱۴۰۲ ۲۳:۲۸
اقتصادآنلاین گزارش می‌دهد؛

چگونه هوش مصنوعی می‌تواند بر انتخابات ۲۰۲۴ آمریکا اثر بگذارد؟

تولید و انتشار اطلاعات نادرست آسان‌تر خواهد شد، اما اهمیت آن کمتر از آن چیزی است که فکر می‌کنید.

کد خبر: ۷۳۲۷۳۹
آرین موتور

اقتصادآنلاین-آرش نصیری؛ سیاست هنر متقاعد کردن است؛ اما همواره تحت الشعاع پروپاگاندا قرار داشته است. کمپین‌های تبلیغاتی تحریف، بزرگنمایی یا فریب را در دستور کار خود قرار می‌دهند. آن‌ها در مورد هرچیزی و به هر وسیله‌ای دروغ‌پراکنی می‌کنند. زمانی تئوری‌های توطئۀ ضدواکسن به جای پادکست از طریق نشریه‌ها تبلیغ می‌شد. یک قرن پیش از کووید-۱۹، مخالفین استفاده از ماسک در دوران آنفولانزای اسپانیایی یک کمپین انتشار اطلاعات نادرست به راه انداختند. آنها از طریق تلگرام (سیم‌ها، نه اپلیکیشن معروف گوشی‌های هوشمند) پیام های جعلی از طرف یک جراح عمومی ارسال می‌کردند. از آنجایی که مردم فرشته نیستند، انتخابات هیچگاه عاری از شایعات دروغ و باورهای غلط نبوده است.

اما از آنجایی که جهان در سال ۲۰۲۴ چندین انتخابات را پیش رو دارد، موضوعی جدید باعث نگرانی بسیاری شده است. در گذشته اطلاعات نادرست همیشه توسط انسان‌ها پخش می‌شد. پیشرفت‌ها در هوش مصنوعی مولد (ai) - با مدل‌هایی که می‌توانند مقالات پیچیده را منتشر و تصاویر واقعی را از پیام‌های متنی ایجاد کنند - پروپاگاندای مصنوعی را ممکن می‌سازد. این نگرانی وجود دارد که کمپین‌های نشر اطلاعات نادرست در سال ۲۰۲۴ افزایش یابد، درست زمانی که کشورهایی با مجموع جمعیت حدود ۴ میلیارد نفر - از جمله آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان- برای رای دادن آماده می‌شوند. اما شهروندان چقدر باید نگران باشند؟

 مهم است که در مورد آنچه که ابزارهای هوش مصنوعی مولد مانند Chatgpt قادر به تأثیرگذاری بر آن هستند، دقیق باشیم. قبل از آمدن آن‌ها، اطلاعات نادرست در دموکراسی‌ها یک معضل بود. ایدۀ مخربی مبنی بر تقلب در انتخابات ریاست جمهوری آمریکا در سال ۲۰۲۰، آشوبگران را در ۶ ژانویه به ساختمان کنگره آورد - اما این ایده توسط دونالد ترامپ، نخبگان جمهوری‌خواه و رسانه‌های گروهی محافظه‌کار با استفاده از ابزارهای متعارف منتشر شد. فعالان حزب مردم هند (bjp) در این کشور شایعاتی را از طریق واتساپ ثدرز منتشر کردند. مبلغان حزب کمونیست چین از طریق رسانه‌های خبری به ظاهر قانونی، موارد لازم را به تایوان منتقل می‌کنند. همۀ این‌ها بدون استفاده از ابزارهای هوش مصنوعی مولد انجام می‌شود.

اما مدل‌های زبانی بزرگ (LLM) در سال ۲۰۲۴ چه چیزی را می‌توانند تغییر دهند؟ یک مورد حجم اطلاعات نادرست است: اگر حجم مطالب بیهوده در ۱۰۰۰ یا ۱۰۰۰۰۰ ضرب شود، ممکن است مردم را متقاعد کند که رأی متفاوتی را به صندوق بیندازند. مورد دوم مربوط به کیفیت است. دیپ‌فیک‌های بیش از حد واقعی می‌توانند رأی‌دهندگان را قبل از اینکه نادرستی صدا، عکس‌ها و ویدیوهای نادرست افشا شود، تحت تأثیر قرار دهد. سومین مورد، هدف‌گذاری خُرد است. با ai، رای دهندگان ممکن است غرق در تبلیغات شخصی‌سازی شده گردند.

شناسایی شبکه‌های ربات‌های تبلیغاتی سخت‌تر از تلاش‌های موجود برای شناسایی اطلاعات نادرست است. از آنجایی که در این شرایط مردم به همه چیز شک می‌کنند، ممکن است اعتماد رأی‌دهندگان به هموطنان خود که در آمریکا برای دهه‌ها رو به کاهش بوده است بیش از پیش آسیب ببیند.

این نگران‌کننده است، اما دلایلی وجود دارد که باور کنیم هوش مصنوعی قرار نیست تجربه ۲۵۰۰ ساله بشریت از دموکراسی را از بین ببرد. بسیاری از مردم فکر می‌کنند که دیگران از خودشان ساده لوح‌ترند. در واقع رای‌دهندگان را به سختی می‌توان متقاعد کرد، به خصوص در مورد موضوعات برجسته سیاسی مانند اینکه کاندید مطلوبشان برای ریاست جمهوری چه کسی است (از خود بپرسید دیپ‌فیک چه چیزی را در خصوص انتخاب شما بین جو بایدن و دونالد ترامپ می‌تواند تغییر دهد). صنعت مبارزات انتخاباتی چند میلیارد دلاری در آمریکا که از انسان‌ها برای متقاعد کردن رأی دهندگان استفاده می‌کند، تنها می‌تواند تغییرات جزئی در رفتار آن‌ها ایجاد کند.

ابزارهایی برای تولید تصاویر و متن جعلی باورپذیر برای چندین دهه وجود داشته است. اگرچه هوش مصنوعی ممکن است یک فناوری مناسب برای صرفه‌جویی در هزینۀ نیروی انسانی برای ساخت و انتشار ترول‌های اینترنتی باشد، اما مشخص نیست که چنین تلاشی محدودیت الزام‌آوری در زمینه تولید اطلاعات نادرست باشد. الگوریتم‌های جدید تولید تصویر چشم‌گیر هستند، اما بدون تنظیم و قضاوت انسان، همچنان مستعد تولید تصاویری از افراد با شش انگشت در هر دست هستند و امکان ساخت دیپ‌فیک‌های شخصی‌سازی شده را فعلاً از راه دور فراهم می‌سازند.

چنانچه این تاکتیک‌های تقویت‌شده توسط هوش مصنوعی اثربخشی خود را ثابت کنند، به زودی توسط بسیاری از طرف‌های ذی‌نفع پذیرفته می‌شوند: اثر تجمعی این عملیات نفوذ این است که شبکه‌های اجتماعی را به مراتب ناهنجارتر و غیرقابل استفاده‌تر می‌کند. اثبات اینکه بی‌اعتمادی به یک مزیت سیستماتیک برای یک حزب نسبت به حزب دیگر تبدیل می‌شود دشوار است.

پلتفرم‌های رسانه‌های اجتماعی که در آن‌ها اطلاعات نادرست منتشر می‌شود، و همچنین شرکت‌های هوش مصنوعی می‌گویند که بر روی خطرات متمرکز شده‌اند. Openai، شرکت پشتیبان Chatgpt می‌گوید که نحوه استفاده از آن را برای شناسایی عملیات‌های نفوذ سیاسی نظارت خواهد کرد. پلتفرم‌های فناوری بزرگ که هم به دلیل انتشار اطلاعات نادرست در انتخابات ۲۰۱۶ و هم حذف بیش از حد در سال ۲۰۲۰ مورد انتقاد قرار می‌گیرند، در شناسایی حساب‌های مشکوک بهتر شده‌اند (اگرچه آنها برای داوری در مورد صحت محتوای تولید شده توسط افراد واقعی سستی می‌کنند). آلفابت و متا استفاده از رسانه‌های دستکاری شده در تبلیغات سیاسی را ممنوع کرده و می‌گویند که به سرعت به دیپ‌فیک‌ها پاسخ می‌دهند. شرکت‌های دیگر در تلاش هستند تا استانداردی تکنولوژیکی ایجاد کنند که منشأ تصاویر و ویدیوهای واقعی را تعیین کند.

با این حال نظارت داوطلبانه محدودیت‌هایی دارد و نوع غیرداوطلبانه آن نیز خطراتی را به همراه دارد. مدل‌های منبع باز مانند Meta’s Llama که متن تولید می‌کند و Stable Diffusion که تصاویر را می‌سازد، می‌توانند بدون نظارت مورد استفاده قرار گیرند. TikTok، رسانه‌ اجتماعی اشتراک‌گذاری ویدیو، با دولت چین ارتباط دارد و این برنامه برای نشر ویروس‌پذیری از هر منبعی، از جمله حساب‌های جدید، طراحی شده است. توییتر (که اکنون X نامیده می شود) پس از خرید توسط ایلان ماسک، تیم نظارتی خود را کاهش داد تا این پلتفرم بهشتی برای ربات‌ها شود.

نهاد نظارتی انتخابات در آمریکا در حال بررسی یک قانون برای افشای کمپین‌هایی است که از تصاویر تولید شده مصنوعی استفاده می‌کنند. این معقول است، اگرچه بازیگران بدخواه از آن پیروی نمی‌کنند. برخی در آمریکا خواستار یک سیستم مقررات افراطی به سبک چینی هستند. در آنجا الگوریتم‌های هوش مصنوعی باید در یک نهاد دولتی ثبت شوند و به نوعی ارزش‌های بنیادین سوسیالیستی را به تصویر بکشند. چنین کنترل سنگینی مزیت آمریکا در نوآوری هوش مصنوعی را از بین می‌برد.

سیاست هرگز خالص نبوده است

اگرچه مهم است که به پتانسیل هوش مصنوعی مولد برای برهم زدن دموکراسی‌ها توجه داشته باشیم اما هراس بیش از حد بی‌مورد است. قبل از پیشرفت‌های تکنولوژیکی در دو سال گذشته مردم کاملاً قادر به انتقال هر گونه ایده‌های مخرب و وحشتناک به یکدیگر بودند. مبارزات انتخاباتی ریاست جمهوری آمریکا در سال ۲۰۲۴ با اطلاعات نادرست در مورد حاکمیت قانون و یکپارچگی انتخابات مخدوش خواهد شد. اما مولد آن چیزی جدید مانند Chatgpt نخواهد بود، ترامپ خواهد بود.

منبع: اکونومیست

برچسب ها:
هوش مصنوعی
ارسال نظرات
x