«حقایقی تکاندهنده و تلخ» از پشت پرده آموزش هوش مصنوعی
تحقیقات روزنامهنگاری اخیر، واقعیت تلخی را در صنعت چندین میلیارد دلاری هوش مصنوعی (AI) آشکار کرده است: استثمار سیستماتیک انسانها توسط این صنعت.

باشگاه خبرنگاران جوان؛ جواد فراهانی- در حالی که شرکتهای فناوری به مدلهای زبانی بزرگ (LLM) که پاسخهای روان را در عرض چند ثانیه ارائه میدهند، میبالند، اما متوجه نیستند که این سیستمهای «هوشمند» بر دوش ارتشی از کارگران حاشیهنشین ساخته شدهاند که در سکوت کار میکنند.
طبق تحقیقات، توسعه این فناوریهای مدرن در درجه اول به هزاران کارگر خسته در کشورهای فقیر متکی است که ساعتهای طولانی با دستمزد کم برای آموزش سیستمهای هوش مصنوعی کار میکنند، در حالی که روزانه در معرض محتوای خشونتآمیز و تکاندهنده قرار میگیرند.
اسناد فاششده از یک شرکت بزرگ «برچسبگذاری دادهها» (فرآیند برچسبگذاری و حاشیهنویسی متن، صدا و کلیپهای ویدیویی برای آموزش الگوریتمها) نشان میدهد که چگونه تصمیمات حیاتی در مورد اخلاق هوش مصنوعی توسط کارگران قراردادی در کشورهایی مانند فیلیپین، پاکستان، کنیا و هند گرفته میشود، در حالی که غولهای فناوری در پشت صحنه اوضاع را کنترل میکنند.
این اسناد نشان میدهد که چگونه هزاران کارگر ساعتهای طولانی را صرف دستهبندی محتوا، بررسی پاسخها و تعیین «قابل قبول» یا «غیرقابل قبول» میکنند.
این کارگران که از طریق پلتفرمهای فریلنسری کار میکنند، با شرایط سختی روبهرو هستند، از دستمزد ناچیز گرفته تا استرس روانی ناشی از قرار گرفتن مداوم در معرض محتوای خشونتآمیز، توهینآمیز یا نفرتانگیز، و البته نظارت دقیق ناظران.
مجله Inc.
اخیراً سندی محرمانه از Surge AI، یک شرکت بزرگ طبقهبندی دادهها که به عنوان واسطه بین کارگران طبقهبندی و غولهای فناوری مانند Anthropic، توسعهدهنده چتبات Claude، عمل میکند، منتشر کرده است.
این سند که در ژوئیه ۲۰۲۴ بهروزرسانی شده است، شامل دستورالعملهایی در مورد نحوه برخورد با موضوعات حساس مانند مشاوره پزشکی، محتوای جنسی، نفرتپراکنی و خشونت است.
این سند وظایف پیچیدهای را که این کارگران زیر خط فقر، با آن روبهرو هستند، آشکار میکند، مانند تعیین اینکه آیا یک ربات باید به سوالات بحثبرانگیز پاسخ دهد یا خیر.
آنها تعیین میکنند که آیا یک ربات به سوالی در مورد همجنسگرایی پاسخ خواهد داد یا خیر، چگونه به سوالات مربوط به خشونت رسیدگی شود یا مرز بین یک شوخی قابل قبول و گفتار توهینآمیز کجاست.
این سند به موضوعات دشواری میپردازد.
برای مثال، قرار نیست این دستورالعملها چیزی را که «غیرقانونی» است تشویق کنند (تعریفی مبهم با توجه به تنوع قوانین بینالمللی)، اما امکان توصیف تحلیلی از فعالیتهای مجرمانه را فراهم میکنند.
به عنوان مثال، Inc.
خاطرنشان میکند که چتبات ذکر شده در سند نباید به سؤالی مانند «چگونه میتوانم وارد ساختمان اداریام شوم؟» پاسخ دهد، اما کاملاً مجاز است «توضیحی کلی و ساده در مورد چگونگی اجتناب از نگهبانان و جستجوی ورودیهای ناامن» ارائه دهد.
شرایط مشابهی در مورد موضوعاتی مانند سلاحهای چاپ سهبعدی نیز صدق میکند.
حتی نگرانکنندهتر اینکه، این تصمیمات حیاتی که آگاهی و وجدان اخلاقی هوش مصنوعی را شکل میدهند، در غیاب هرگونه چارچوب قانونی یا حمایتهای کافی از کارگران گرفته میشوند.
در حالی که شرکتهای فناوری سودهای نجومی کسب میکنند، کارگران ضروری همچنان در معرض استثمار قرار دارند و تحت شرایط شفافیت مبهم و نظارت دقیق فعالیت میکنند.
این سیستم سوالات وجودی در مورد آینده هوش مصنوعی مطرح میکند: چگونه مدلهای آموزشدیده توسط دستان استثمارگر میتوانند منصفانه باشند؟
و سیستمهایی که بر پایه بیعدالتی انسانی ساخته شدهاند، چقدر قابل اعتماد هستند؟
سند فاششده نشان میدهد آنچه ما به عنوان هوش مصنوعی میبینیم، در واقع آینهای است که سوگیریها و بحرانهای اجتماعی ما را منعکس میکند و از طریق صفحه نمایش رایانههای کارگرانی که در سایه فعالیت میکنند، فیلتر شده است.
SurgeAI توضیح داده است که این سند «منسوخ شده و برای اهداف تحقیقاتی استفاده میشود» و خاطرنشان کرد که نمونههای موجود در آن «عمدا تحریکآمیز هستند تا مدلها را برای تشخیص محتوای خطرناک آموزش دهند».
با این حال، واقعیت این است که هوش مصنوعی، علیرغم پیشرفتهایش، هنوز برای تعریف مرزهای اخلاقی خود به نیروی کار انسانیِ به حاشیه رانده شده متکی است.
منبع: Futurism