نگاهی به استفاده یوتیوب از هوش مصنوعی برای متعادل‌سازی ویدیوهای نامناسب

علمی

بر کسی پوشیده نیست که یوتیوب در سال گذشته‌ی میلادی قصد متعادل کردن ویدیوهای پلتفرمش را داشت. بارها شایع شد که شرکت یوتیوب نمی‌تواند از پس محتوای نامناسب بربیاید؛ مخصوصا درقبال ویدیوهایی که هدفشان کودکان بودند. کارکنان یوتیوب به‌طور مستقیم مسئولیت از بین بردن و جلوگیری‌ از آپلود ویدیوهای با مضامین جنسی و خشونت‌آمیز را بر عهده گرفتند. همچنین پیمانکاران از هوش‌ مصنوعی برای شناسایی محتوای نامناسب استفاده کردند. با این حال شاید ارائه‌ی کارکرد ترک مکانیکی، بتواند عملکرد ابزار یادگیری ماشینی یوتیوب را در سطوح اولیه به ما نشان دهد.

ترک مکانیکی (ام‌ترک) یا مکانیکال ترک، یک بازار زیرمجموعه‌ی آمازون است که در آن نهاد‌ها و پژوهشگران آکادمیک، برای اجرا و انجام خدمات کوچک به‌ نام وظایف هوش انسانی (HIT) به پیمانکاران و کارکنان پول پرداخت می‌کنند. هزینه معمولا کمتر از ۱ دلار است. کارکنان ام‌ترک با تکمیل وظایفی همچون شناسایی اشیاء یک تصویر، نوشتن درمورد یک فایل صوتی یا کمک‌ به آموزش یک الگوریتم، به عملکرد بهتر اینترنت کمک می‌کنند.

کارکنان ام‌ترک به‌طور مستقیم درمورد متعادل کردن محتویات تصمیم‌گیری نمی‌کنند؛ ولی به‌طور روتین به آموزش ابزار یادگیری ماشینی یوتیوب در تمامی راه‌ها کمک می‌کنند. ابزار یادگیری ماشینی، کاری فراتر از یافتن ویدیوهای نامناسب انجام می‌دهد. کارکنان همچنین به سایر بخش‌های سیستم یوتیوب مانند الگوریتم توصیه‌گر (پیشنهادی) کمک می‌کنند.

راشل لاپلانت، یکی‌ از کارکنان ام‌ترک که اطلاعاتش را با پایگاه خبری وایرد به‌ اشتراک گذاشت، می‌گوید:

یوتیوب و گوگل سال‌ها است که وظایفی بر عهده‌ی ترک مکانیکی گذاشته‌اند. وظایف طیف بسیار متنوعی دارند؛ از جمله تگ کردن نوع محتوا، جستجوی محتویات مربوط‌به بزرگسالان، مشخص کردن محتویاتی که بوی تئوری توطئه می‌دهند، مشخص کردن اینکه آیا عناوین مناسب هستند یا خیر و شناسایی اینکه آیا ویدیو از حساب کاربری ویوو است یا خیر.

طبق گفته‌ی لاپلانت، وظایف آن‌ها اغلب‌ اوقات تغییر می‌کند. مثلا گاهی‌ اوقات وظایف آن‌ها به‌طور مستقیم مربوط‌ به شناسایی محتوای توهین‌آمیز است؛ البته کار آن‌ها بعضی‌ اوقات تنها در تعیین مناسب بودن ویدیو برای مخاطب خاص مثلا کودکان خلاصه می‌شود. او گفت:

برخی‌ از کارکنان، این عمل را برای تصمیم‌گیری در مورد پولی شدن یا نشدن یک کانال در نظر می‌گیرند.

نظارت یوتیوب بر ویدئوها

تماشا کنید و یاد بگیرید

وظیفه‌ی متعادل کردن محتوای خاصی (که لاپلانت در ۱۴ مارس به‌ازای ۱۰ سنت آن‌ها را انجام داد) که با پایگاه وایرد به‌ اشتراک گذاشته شد، کاملا یک هدف واضح داشت. البته جاهایی وجود دارد که ابهاماتی در اذهان کارکنان به‌ وجود می‌آورد. کار پیشنهادی در مورد پنجره‌ای در یک فرآیند غیر قابل دیدن است: از یک تفسیر انسانی درمورد ویدیو چگونه می‌توان برای کمک کردن به ساخت الگوریتم یادگیری ماشینی استفاده کرد؟ حتی الگوریتم‌های یادگیری ماشینی داخل خود یوتیوب هم تنها ویدیوها را علامت می‌زنند و مشخص کردن اینکه چه‌ موردی دستورالعمل‌ها و قوانین جامعه‌ی یوتیوب را خدشه‌دار می‌کند، یک وظیفه‌ی انسانی است.

HTI از کارکنان ام‌ترک تماشای یک ویدیو را می‌خواهد. بعد از تماشای ویدیو توسط کارکنان، آن‌ها باید به‌ سؤالاتی درمورد آن ویدیو، به‌صورت پر کردن گزینه‌ها جواب دهند. HTI همچنین از کارکنان می‌خواهد به‌عنوان و توضیح و توصیف ویدیو توجه کنند. کارکنان باید مقداری از ویدیو را تماشا کنند تا بتوانند در قضاوتشان پیرامون در مورد مطمئن باشند. HTI تماشای ویدیو با سرعت ۱.۵ برابر را به کارکنان پیشنهاد می‌کند تا این روند را سریع‌تر انجام دهند. سؤالات پرسیده‌شده از کارکنان مواردی از قبیل زبان ویدیو (خشن و بی‌ادب) و دیالوگ بزرگ‌سالان (توهین‌آمیز یا بحث‌برانگیز) را شامل می‌شود.

بخشی‌ از HTI خواستار تشخیص تفاوت بین تصاویر (واقعی یا ساختگی) مصرف مواد مخدر و همچنین استفاده‌ی تصادفی یا طنزآمیز از داروهای معمولی است. این وظیفه فهرستی از داروهای مخرب یا غیر مخرب ندارد و تنها هروئین را جزو داروهای مخرب به‌حساب می‌آورد. در آخر کارکنان باید درباره‌ی اینکه آیا ویدیو مناسب کودکان است یا خیر، قضاوت کنند.

هوش مصنوعی

کارکنان برای اینکه حقوقشان با حقوق کار فدرال (۷.۲۵ دلار در ساعت) برابری کند، باید در هر ساعت ۷۲.۵ وظیفه‌ی محوله را انجام دهند. به‌عبارت دیگر آن‌ها باید وظایف‌شان را بسیار سریع انجام دهند تا به حقوق کار معمولی برسند. با اینکه برخی‌ از سؤالات پرسیده‌شده ازطرف یوتیوب بسیار سرراست و راحت هستند (مثلا آیا در این فایل صوتی، آواز خواندن وجود دارد؟)، اکثر آن‌ها کمی پیچیدگی دارند و کار آموزش هوش مصنوعی را سخت می‌کنند. یک ویدیوی ساده از گربه، کارکنان را دچار مشکل نمی‌کند؛ ولی تشخیص سخنان پیچیده‌ی سیاسی درمورد مسائلی مثل سقط جنین واقعا کار سخت و پیچیده‌ای است.

هدف دقیق وظیفه و مسئولیت‌های خاص لاپلانت مشخص نیست و می‌تواند تنها متعادل کردن محتوا یا سایر موازین باشد و یوتیوب هم از نظر دادن درمورد چنین وظیفه‌ی خاصی امتناع می‌کند. لینک ویدیوی مشمول مسئولیت، به صفحه‌ای غیر قابل دسترس ختم می‌شود. ویدیو که در فاصله زمانی سپتامبر ۲۰۱۶ تا مارس ۲۰۱۸، توسط ماشین بایگانی وی‌بک ۵۶ بار ضبط شده است، طبق اسکرین‌شات‌های اولیه، اصلا وجود ندارد. لاپلانت هم اصلا آن کلیپ را به‌ یاد نمی‌آورد. او می‌گوید:

هیچ ویدیوی خاصی را به‌ یاد ندارم؛ ولی به‌ نظر می‌رسد آپلود‌های افراد مختلف، کلیپ‌هایی از تلویزیون یا سینما و فیلم، تبلیغات و بازی‌های ویدیویی بخش‌هایی از این ویدیو را تشکیل می‌دهند. ویدیو دارای یک ژانر یا نوع خاص نبود.

یاوران انسانی

یوتیوب در ماه دسامبر سال گذشته میلادی متعهد‌ به افزایش نیروی کار متعادل‌کننده به ۱۰ هزار نفر در سال ۲۰۱۸ شد. کارکنان ام‌ترک جزو ۱۰ هزار نفر محسوب نمی‌شدند؛ چون‌ کار آن‌ها متعادل کردن نبود، بلکه کمک‌ به آموزش هوش مصنوعی برای انجام چنین فرآیندهایی درآینده بود. لاپلانت می‌گوید:

من انتظار دارم حتی اگر یوتیوب تنها برای آموزش الگوریتم‌های یادگیری ماشینی از کارکنان ام‌ترک استفاده کند، برخی‌ از این آموزش‌ها صرف آموزش الگوریتم‌ها برای کمتر کردن دخالت انسانی بشود. بنابراین اگر احتمالا ما متعادل‌‌سازی محتوای زنده را روی ام‌ترک انجام ندهیم، هنوز می‌توانیم با آموزش سیستم‌های اتوماتیک متعادل‌سازی محتوا، در چنین کاری سهیم باشیم.

سارا تی.رابرت، پژوهشگر درزمینه‌ی متعادل‌سازی محتوا در دانشگاه کالیفرنیا، استفاده‌ی پلتفرم‌هایی مثل یوتیوب از سایت‌های کاری کوچک همانند ترک مکانیکی برای تکمیل فعالیت‌های ثانویه و بلندمدت مثل آموزش الگوریتم‌ها را امری رایج می‌داند.

… شکی در این مسئله نیست و افرادی مثل لاپلانت و دیگران که تجارب طولانی‌مدت کار روی سایت‌های کاری کوچک را دارند، توجه ویژه‌ای به چنین مواردی دارند.

مکانیکال ترک

یوتیوب نیاز مبرمی به ابزار هوش مصنوعی تحت آموزش لاپلانت و سایر کارکنان ام‌ترک دارد؛ چراکه درچند ماه گذشته چندین بار در کنترل و بازرسی محتوای خود با شکست روبرو شده است. یوتیوب در سال جاری با مشکل آپلود ویدیوی خودکشی یک فرد توسط یکی‌ از افراد مشهور، روبرو شد. انتقادات زیادی از این ماجرا گریبان‌گیر یوتیوب شد؛ تا اینکه خود شخص آن ویدیو را پاک کرد. انتقادات از یوتیوب به‌ دلیل اجازه‌ی دادن به نشر تئوری توطئه درمورد تیراندازی در پارک‌لند بود. این ماجرا مربوط‌ به گروه سفیدپوست تندرویی بود که با ۵ قتل دیگر مرتبط بودند.

بحث در مورد چگونگی اصلاح یوتیوب، سیستم‌ها و افراد فعلی را که به بهبود یوتیوب کمک می‌کنند در بر نمی‌گیرد. بخشی‌ از این افراد، کارکنان ام‌ترک هستند که به آموزش جدیدترین ابزار یادگیری ماشینی یوتیوب کمک می‌کنند. این ابزار روزی در تشخیص دقیق و سریع محتوای نامناسب کمک شایانی به پلتفرم یوتیوب خواهد کرد.

طبق گفته‌ی یوتیوب، الگوریتم‌ها در حال حاضر ۹۸ درصد ویدیوهای افراطی را شناسایی می‌کنند؛ البته بازهم اصلاح‌کننده‌های انسانی این ویدیوها را بازبینی می‌کنند. احتمالا الگوریتم‌ها در آینده در متعادل‌سازی محتوا پا را فراتر خواهند گذاشت. اما در حال حاضر هوش مصنوعی آنقدر قوی نیست که در مورد اینکه کدام ویدیو بماند و کدام حذف شود، تصمیمات جزئی بگیرد. البته دلیل این امر واضح است؛ پایه و اساس فناوری هوش مصنوعی یوتیوب به تصمیمات فوری کارکنان ام‌ترک بستگی دارد. تلاش برای کپی‌ کردن قضاوت انسانی در هوش مصنوعی کار آسانی نیست و پاسخ کارکنان ام‌ترک به سؤالات یوتیوب تنها بر اساس دیدگاه آن‌ها گرفته می‌شود و نمی‌تواند کمکی به جریان کلی بکند. الگوریتم‌ها حتی اگر با بهترین نیت ساخته شده باشند، بازهم هرگز کاملا خنثی و بی‌طرف نخواهند بود؛ چراکه ساخته‌ی دست انسان‌ هستند. گاهی‌ اوقات حتی الگوریتم‌ها هم نتیجه‌ی کار افرادی کم‌حقوق هستند که ویدیوها را باسرعت ۱.۵ برابر تماشا می‌کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *