هوش مصنوعی دوباره همه را فریب داد / ساخت تصاویر جعلی از انفجار ساختمان پنتاگون
یک تصویر جعلی از یک انفجار در نزدیکی پنتاگون بار دیگر قدرت فریبکاری مبتنی بر هوش مصنوعی را آشکار کرد و باعث شد بازار سهام برای مدت کوتاهی ریزش کند.
اقتصادآنلاین – حسین عسکری؛ در ۲۲ مه، حساب تایید شده توییتر Bloomberg Feed که وانمود میکرد وابسته به گروه رسانهای بلومبرگ است و اکنون به حالت تعلیق درآمده است، تصویری را از یک انفجار بزرگ در نزدیکی پنتاگون، مقر وزارت دفاع ایالات متحده به اشتراک گذاشت.
این گزارش جعلی به سرعت مورد توجه قرار گرفت و توسط چندین رسانه به اشتراک گذاشته شد، از جمله صفحه رسمی توییتر رسانه تحت کنترل دولت روسیه یعنی راشا تودی که ۳ میلیون دنبال کننده دارد، علاوه بر این یک رسانه هندی با ۲.۸ میلیون دنبال کننده در توییتر این تصویر را بازنشر کرد.
مقامات محلی از جمله آژانس حفاظت از نیروی پنتاگون، مسئول امنیت ساختمان، گفتند که از گزارش در حال گردش آگاه بوده و تایید کردند که هیچ انفجار یا حادثهای رخ نداده است.
چندین کاربر توییتر به ناهماهنگیهایی در تصویر اشاره کردند که نشان میدهد این تصویر ساختهشده توسط هوش مصنوعی است و نشان میدهند که نمای ساختمان یکنواخت نیست و به نظر میرسد دو حصار مختلف نشان داده شده در تصویر با هم ادغام شدهاند.
با توجه به این خبر، شاخص S&P 500 برای مدت کوتاهی ۰.۲۶ درصد کاهش یافت اما پس از فاش شدن جعلی بودن به سرعت بهبود یافت.
ابزارهای هوش مصنوعی پیش از این در ایجاد اخبار جعلی و محتوای فریبنده استفاده شده است. اوایل ماه مه، روزنامه ایرلندی The Irish Times پس از اینکه مقالهای که توسط هوش مصنوعی تولید شده بود، منتشر کرد، از مردم عذرخواهی کرد.
در ماه آوریل، رگولاتور مالی ادعا کرد که برخی از شرکتهای رمزارز از آواتارهای تولید شده توسط هوش مصنوعی برای ایفای نقش مدیران اجرایی خود در ویدیوهای تبلیغاتی استفاده میکنند.
یکی از نمونههای قابلتوجه فریب کاری هوش مصنوعی، ویدیوی جعلی از بنیانگذار FTX، سام بنکمن فرید بود که مدت کوتاهی پس از فروپاشی صرافی منتشر شد و تلاش کرد تا کاربران صرافی FTX را به یک سایت مخرب با وعده پرداخت سود هدایت کند.
نمونههایی از تصاویر ایجاد شده (انفجار پنتاگون) توسط هوش مصنوعی: