x
۲۴ / شهريور / ۱۴۰۲ ۲۳:۴۹

هوش مصنوعی چگونه انسان‌ها را گول می‌زند؟

نتایج یک تحقیق نشان داد کانال‌های یوتیوب با استفاده از اطلاعات نادرست هوش مصنوعی، ویدئوهایی تولید و آن‌ها را به عنوان «محتوای آموزشی» به کودکان ارائه می‌کنند.

کد خبر: ۷۳۴۴۲۳
آرین موتور

به گزارش سرویس جهانی بی بی سی، روزنامه‌نگاران این رسانه در جریان یک پژوهش برای یافتن و تحلیل عرضه اطلاعات نادرست و گمراه‌کننده، بیش از ۵۰ کانال یوتیوب را به بیش از ۲۰ زبان پیدا کردند که اطلاعات نادرست را به عنوان محتوای ریاضیات، مهندسی، فناوری و علوم دیگر منتشر می‌کنند.

به گزارش اقتصاد آنلاین به نقل از صدا و سیما، این کار به معنی ارائه اطلاعاتی به عنوان واقعیت علمی است که در واقع مبتنی بر روش‌های علمی به دست نیامده اند.

در بسیاری از موارد این اطلاعات، در واقع تئوری‌ها یا باورهایی هستند که برخی از گروه‌ها سعی دارند عمداً عموم مردم را گمراه کنند. این کار معمولاً به نفع یک گروه کوچک، ولی قدرتمند صورت می‌گیرد، نمونه‌هایی مثل وجود اهرام تولیدکننده برق، انکار تغییرات آب و هوایی ناشی از فعالیت‌های انسان و وجود بیگانگان فضایی.

تجزیه و تحلیل روزنامه‌نگاران بی بی سی نشان می‌دهد که یوتیوب این ویدئوهای مثلاً علمی را در کنار محتوای آموزشی قانونی به کودکان توصیه می‌کند.

کودکان با اطلاعات نادرست هوش مصنوعی تهدید می‌شوند

هوش مصنوعی چیست؟

هوش مصنوعی فناوری است که رایانه را قادر می‌سازد به شیوه‌ای «انسانی‌تر» فکر یا عمل کند. رایانه این کار را با دریافت اطلاعات از محیط اطراف خود انجام می‌دهد و بر اساس آنچه می‌آموزد، به سوالات پاسخ می‌دهد.

اصطلاح هوش مصنوعی اولین بار در سال ۱۹۵۶ استفاده شد. در دهه ۱۹۶۰، دانشمندان به رایانه‌ها آموزش می‌دادند که چگونه تصمیم‌گیری‌های انسانی را تقلید کنند.

این کار به تحقیقات درباره «یادگیری ماشینی» تبدیل شد که در آن به ربات‌ها آموزش داده شد که به جای کپی‌کردن، خودشان یاد بگیرند و اشتباهاتشان را به خاطر بسپارند.

کلیک بیشتر، پول بیشتر

«کایل هیل» یک تولیدکننده محتوا در یوتیوب و مربی علوم با تعداد زیادی دنبال‌کننده است.

او از چند ماه پیش متوجه این ویدئوهای علمی نادرست شد که در نمایه او ظاهر شد. او می‌گوید دنبال‌کنندگانش درباره محتوای توصیه‌شده با او تماس گرفتند که قانونی به نظر می‌رسید، اما در واقع مملو از اطلاعات نادرست بود.

به نظر می‌رسد که سازندگان، محتوای دقیق ویدئوها را دستکاری کرده و سپس آن‌ها را مجدداً منتشر کرده‌اند.

سازندگان همچنین ویدئوهای حاوی اطلاعات نادرست خود را به عنوان «محتوای آموزشی» برچسب گذاری می‌کردند، به این معنی که احتمال اینکه به کودکان توصیه شوند، بیشتر بود.

«کایل» می‌گوید: از آنجایی که من در زمینه مسائل علمی فعالیت می‌کنم، این موضوع را شخصاً در نظر گرفتم. به نظر می‌رسید این کانال‌ها دقیقاً چیزی را که برای به حداکثر رساندن بازدیدها لازم است، شناسایی کرده‌اند.

کودکان با اطلاعات نادرست هوش مصنوعی تهدید می‌شوند

هرچه افراد بیشتری ویدئوها را تماشا کنند، صاحب آن صفحه یا کانال درآمد می‌آورد. همچنین کانال‌ها با اعلام موافقت با نمایش آگهی‌ها در صفحه‌شان مبلغ بیشتری کسب می‌کنند.

چگونه اطلاعات تقلبی را تشخیص دهیم؟

گروه پژوهش بی بی سی برای یافتن اطلاعات نادرست، ده‌ها کانال را در یوتیوب پیدا کرد که این نوع مطالب گمراه‌کننده را به زبان‌هایی از جمله عربی، اسپانیایی و تایلندی تولید می‌کردند.

بسیاری از این کانال‌ها بیش از یک میلیون دنبال‌کننده داشتند و ویدئوهای آن‌ها معمولا میلیون‌ها بازدید را به خود اختصاص می‌داد.

بسیاری از دست‌اندرکاران این کانال‌ها سرعت بالایی در تولید و انتشار ویدئو دارند و روزانه چندین ویدئو به اشتراک می‌گذارند.

محققان بی بی سی به همین موضوع مشکوک شدند که احتمالا تولیدکنندگان این محتواها از برنامه‌های هوش مصنوعی مولد استفاده می‌کنند. این‌ها برنامه‌هایی مانند «چت جی پی تی» و «MidJourney» هستند که می‌توانند در صورت درخواست کاربر، محتوای جدیدی ایجاد کنند. 

آن‌ها برای صحت‌سنجی این نظریه، از هر کانال ویدئویی برگزیدند و از ابزارهای تشخیص هوش مصنوعی و تحلیل‌های تخصصی برای ارزیابی احتمال اینکه فیلم، روایت و فیلمنامه با استفاده از هوش مصنوعی ساخته شده است، استفاده کردند.

تجزیه و تحلیل این موارد نشان داد که برای تولید اغلب آن ویدئوها از هوش مصنوعی استفاده شده است؛ یعنی استخراج اطلاعات از یک وب‌سایت و دستکاری مطالب ویدئوهای علمی واقعی. در نتیجه محتوایی شکل می‌گیرد که واقعی به نظر می‌رسد، اما عمدتاً نادرست است.

چند نکته برای جلوگیری از گمراه‌شدن با اطلاعات نادرست

اگر می‌خواهید سعی کنید مطمئن شوید که درگیر اطلاعات نادرست نمی‌شوید، به چند نکته توجه کنید.

از خودتان بپرسید: 

۱- آیا این ادعا در جای دیگری گزارش شده است؟ اطلاعات و حقایق جدید و شگفت‌انگیز، معمولاً به طور گسترده و سریع به اشتراک گذاشته می‌شوند یعنی در رادیو، تلویزیون یا روزنامه‌ها بازتاب می‌یابند.

۲- آیا درباره سازنده محتوایی که ویدئو را منتشر کرده، چیزی شنیده‌اید؟ این افراد چقدر قابل اعتماد هستند؟

به یاد داشته باشید که تعداد فالوئرها و بازدیدها همیشه کسی را به منبع قابل اعتماد تبدیل نمی‌کند.

۳- آیا این ویدئو یک کپی‌برداریِ طراحی شده است تا شبیه یک ویدئوی واقعی دیگر باشد؟

۴- آیا شخصی که در ویدئو صحبت می‌کند، ظاهر و صدایش عادی است یا این صدا و تصویر تولیدشده توسط رایانه است؟

۵- آیا محتوا باورپذیر به نظر می‌رسد و با آنچه از قبل می‌دانستید و در مدرسه و دانشگاه تدریس شده، مطابقت دارد؟

از تماشای آن لذت بردم

محققان حاضر در این گروه، برای آزمایش اینکه آیا ویدئوهای علمی گمراه‌کننده به کودکان توصیه می‌شود یا نه، حساب‌های کودکانه‌ای را در سایت اصلی یوتیوب ایجاد کردند. (همه کودکانی که با آن‌ها صحبت شد، گفتند که به جای «YouTube Kids» از حساب‌های کودکان استفاده می‌کردند.)

پس از چهار روز تماشای ویدئوهای آموزشی قانونی، به محققان ویدئوهای علمی گمراه‌کننده که توسط هوش مصنوعی ساخته شده بودند هم توصیه شد. در صورتیکه اعضای تیم تحقیق روی این ویدئوها کلیک می‌کردند، تعداد بیشتری از کانال‌های علمی نادرست توصیه می‌شد.

کودکان با اطلاعات نادرست هوش مصنوعی تهدید می‌شوند

به عنوان بخشی از آزمایش، روزنامه‌نگاران برخی از محتوای علمی نادرست توصیه‌شده را با دو گروه ۱۰ تا ۱۲ ساله (یکی در انگلیس و دیگری در تایلند) به اشتراک گذاشتند تا ببینند آیا کودکان اطلاعاتی را که تماشا می‌کنند باور می‌کنند یا نه.

یکی از ویدئوها بر روی بشقاب‌پرنده‌ها و توطئه‌های بیگانگان متمرکز شده و مواردی را نشان می‌داد که واقعیت ندارند. ویدئوی دیگر به دروغ ادعا می‌کرد که از اهرام ثلاثه مصر برای تولید برق استفاده شده است.

نتیجه این بود؛ بچه‌ها متقاعد شدند. یکی از آن‌ها گفت «من از تماشای آن لذت بردم» یا دیگری که گفت «در ابتدا مطمئن نبودم موجودات فضایی وجود داشته باشند، اما اکنون فکر می‌کنم وجود دارند»، کودک دیگری هم تحت تأثیر اهرام الکتریکی قرار گرفت: «من نمی‌دانستم که مردم از گذشته می‌توانند برای استفاده از فناوری مدرن برق بسازند.».

اما در عین حال، برخی از کودکان این گروه توانستند استفاده از هوش مصنوعی را در ویدئوها تشخیص دهند. یکی از بچه‌ها گفت: «کاملاً خنده‌دار بود! آن‌ها حتی از صدای انسانی استفاده نکردند، من می‌دانم که این صدای انسان نیست.»

هنگامی که محققان به کودکان توضیح دادند که این فیلم‌ها با استفاده از هوش مصنوعی ساخته شده و حاوی اطلاعات نادرست است، آن‌ها شوکه شدند.

یکی از پسرها گفت: «من واقعاً گیج شدم. فکر کردم واقعی است» یا دیگری که گفت «اگر به ما نمی‌گفتید این ویدئو جعلی است، احتمالاً آن را باور می‌کردم.»

کودکان احتمالاً اطلاعات نادرست را باور می‌کنند

معلمان می‌گویند بازی با کنجکاوی طبیعی کودکان باعث سردرگمی آن‌ها درباره واقعیت می‌شود.

پروفسور «ویکی نش» مدیر مؤسسه اینترنتی آکسفورد در این زمینه می‌گوید: این ویدئوها توطئه‌آمیز هستند و مثلا تلاش دارند رازی را افشا کنند که بیشتر مردم از آن اطلاعی ندارند.

او می‌گوید: همه ما مجذوب چیزهایی هستیم که با آنچه که به طور رسمی به ما گفته می‌شود، تضاد دارد و کودکان نسبت به بزرگسالان بیشتر مستعد ابتلا به این موضوع هستند.

«کلر سیلی» یک معلم مدرسه ابتدایی در انگلیس است که این حرف را تایید می‌کند.

او می‌گوید: کودکان اغلب آنچه را که قبلاً به عنوان واقعیت می‌دانستند، در نظر می‌گیرند. فقط ممکن است وقتی کمی بزرگتر شوند، شروع به زیر سوال بردن آن کنند.

پروفسور «نش» همچنین این سوال را مطرح کرد که آیا پلتفرم‌هایی مانند یوتیوب باید از تبلیغاتی که در کنار این ویدئوهای گمراه‌کننده دیده می‌شوند درآمد کسب کنند.

او تأکید کرد: این ایده که یوتیوب و گوگل از آگهی‌هایی که با اخبار شبه‌علمی ارائه می‌شوند، درآمد کسب می‌کنند، واقعاً غیراخلاقی است.

بی بی سی با تعدادی از شرکت‌هایی که این نوع محتوای گمراه‌کننده هوش مصنوعی را تولید می‌کنند، تماس گرفت. یکی از این شرکت‌ها در پاسخ عنوان کرد که محتوای آن‌ها برای سرگرمی تولید شده است. در واقع آن‌ها هدف قرار دادن کودکان را تکذیب کردند و گفتند که از هوش مصنوعی برای بیشتر تولیدات خود استفاده نکرده‌اند.

کودکان با اطلاعات نادرست هوش مصنوعی تهدید می‌شوند

تحصیل کودکان در معرض خطر

یوتیوب اعلام کرد که «YouTube Kids» را به افراد زیر ۱۳ سال توصیه می‌کند چراکه دارای یک سطح بالاتر در زمینه کیفیت ویدئوهای قابل نمایش است. 

یوتیوب اعلام کرد که متعهد به حذف اطلاعات نادرست از پلتفرم‌های خود و ارائه یک «تجربه ایمن و باکیفیت» به خانواده‌هاست.

این شبکه اجتماعی همچنین محققان را به سمت درگاه‌هایی هدایت کرد که اطلاعات بیشتری را از منابع ثالث در مورد محتوای مرتبط با این اقدامات توطئه‌آمیز نشان می‌دهند.

در نهایت مشخص شد که این درگاه‌های اطلاعاتی فقط برای چند ویدئو در ۵۰ کانال وجود دارد.

یوتیوب همچنین به سؤالات مربوط به درآمد تبلیغاتی که از بازدیدهای ویدئوهای گمراه‌کننده کسب می‌شود هم توضیحی نداد.

با ادامه پیشرفت ابزارهای هوش مصنوعی، ساخت محتوای گمراه‌کننده آسان‌تر و شناسایی ویدئوها دشوارتر می‌شود.

«کلر سیلی» یک معلم مدرسه ابتدایی در انگلیس در این زمینه ابراز نگرانی کرده و از معلمان و والدین خواست تا برای مقابله با محتواهای گمراه‌کننده بیشتر آماده شوند.

با وجود همه این اطلاعات، هنوز اطلاعات دقیقی از اینکه محتوای تولیدشده توسط هوش مصنوعی چگونه بر درک کودکان تأثیر می‌گذارد، وجود ندارد.

نوبیتکس
برچسب ها:
هوش مصنوعی
ارسال نظرات
x