خبیر‌نیوز | خلاصه خبر

چهارشنبه، 01 مرداد 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

«حقایقی تکان‌دهنده و تلخ» از پشت پرده آموزش هوش مصنوعی

باشگاه خبرنگاران | سلامت و پزشکی | سه شنبه، 31 تیر 1404 - 18:00
تحقیقات روزنامه‌نگاری اخیر، واقعیت تلخی را در صنعت چندین میلیارد دلاری هوش مصنوعی (AI) آشکار کرده است: استثمار سیستماتیک انسان‌ها توسط این صنعت.
كارگران،هوش،مصنوعي،سند،محتواي،فناوري،قرار،سوالات،معرض،قبول،پ ...

باشگاه خبرنگاران جوان؛ جواد فراهانی- در حالی که شرکت‌های فناوری به مدل‌های زبانی بزرگ (LLM) که پاسخ‌های روان را در عرض چند ثانیه ارائه می‌دهند، می‌بالند، اما متوجه نیستند که این سیستم‌های «هوشمند» بر دوش ارتشی از کارگران حاشیه‌نشین ساخته شده‌اند که در سکوت کار می‌کنند.
طبق تحقیقات، توسعه این فناوری‌های مدرن در درجه اول به هزاران کارگر خسته در کشور‌های فقیر متکی است که ساعت‌های طولانی با دستمزد کم برای آموزش سیستم‌های هوش مصنوعی کار می‌کنند، در حالی که روزانه در معرض محتوای خشونت‌آمیز و تکان‌دهنده قرار می‌گیرند.
اسناد فاش‌شده از یک شرکت بزرگ «برچسب‌گذاری داده‌ها» (فرآیند برچسب‌گذاری و حاشیه‌نویسی متن، صدا و کلیپ‌های ویدیویی برای آموزش الگوریتم‌ها) نشان می‌دهد که چگونه تصمیمات حیاتی در مورد اخلاق هوش مصنوعی توسط کارگران قراردادی در کشور‌هایی مانند فیلیپین، پاکستان، کنیا و هند گرفته می‌شود، در حالی که غول‌های فناوری در پشت صحنه اوضاع را کنترل می‌کنند.
این اسناد نشان می‌دهد که چگونه هزاران کارگر ساعت‌های طولانی را صرف دسته‌بندی محتوا، بررسی پاسخ‌ها و تعیین «قابل قبول» یا «غیرقابل قبول» می‌کنند.
این کارگران که از طریق پلتفرم‌های فریلنسری کار می‌کنند، با شرایط سختی رو‌به‌رو هستند، از دستمزد ناچیز گرفته تا استرس روانی ناشی از قرار گرفتن مداوم در معرض محتوای خشونت‌آمیز، توهین‌آمیز یا نفرت‌انگیز، و البته نظارت دقیق ناظران.
مجله Inc.
اخیراً سندی محرمانه از Surge AI، یک شرکت بزرگ طبقه‌بندی داده‌ها که به عنوان واسطه بین کارگران طبقه‌بندی و غول‌های فناوری مانند Anthropic، توسعه‌دهنده چت‌بات Claude، عمل می‌کند، منتشر کرده است.
این سند که در ژوئیه ۲۰۲۴ به‌روزرسانی شده است، شامل دستورالعمل‌هایی در مورد نحوه برخورد با موضوعات حساس مانند مشاوره پزشکی، محتوای جنسی، نفرت‌پراکنی و خشونت است.
این سند وظایف پیچیده‌ای را که این کارگران زیر خط فقر، با آن رو‌به‌رو هستند، آشکار می‌کند، مانند تعیین اینکه آیا یک ربات باید به سوالات بحث‌برانگیز پاسخ دهد یا خیر.
آنها تعیین می‌کنند که آیا یک ربات به سوالی در مورد همجنس‌گرایی پاسخ خواهد داد یا خیر، چگونه به سوالات مربوط به خشونت رسیدگی شود یا مرز بین یک شوخی قابل قبول و گفتار توهین‌آمیز کجاست.
این سند به موضوعات دشواری می‌پردازد.
برای مثال، قرار نیست این دستورالعمل‌ها چیزی را که «غیرقانونی» است تشویق کنند (تعریفی مبهم با توجه به تنوع قوانین بین‌المللی)، اما امکان توصیف تحلیلی از فعالیت‌های مجرمانه را فراهم می‌کنند.
به عنوان مثال، Inc.
خاطرنشان می‌کند که چت‌بات ذکر شده در سند نباید به سؤالی مانند «چگونه می‌توانم وارد ساختمان اداری‌ام شوم؟» پاسخ دهد، اما کاملاً مجاز است «توضیحی کلی و ساده در مورد چگونگی اجتناب از نگهبانان و جستجوی ورودی‌های ناامن» ارائه دهد.
شرایط مشابهی در مورد موضوعاتی مانند سلاح‌های چاپ سه‌بعدی نیز صدق می‌کند.
حتی نگران‌کننده‌تر اینکه، این تصمیمات حیاتی که آگاهی و وجدان اخلاقی هوش مصنوعی را شکل می‌دهند، در غیاب هرگونه چارچوب قانونی یا حمایت‌های کافی از کارگران گرفته می‌شوند.
در حالی که شرکت‌های فناوری سود‌های نجومی کسب می‌کنند، کارگران ضروری همچنان در معرض استثمار قرار دارند و تحت شرایط شفافیت مبهم و نظارت دقیق فعالیت می‌کنند.
این سیستم سوالات وجودی در مورد آینده هوش مصنوعی مطرح می‌کند: چگونه مدل‌های آموزش‌دیده توسط دستان استثمارگر می‌توانند منصفانه باشند؟
و سیستم‌هایی که بر پایه بی‌عدالتی انسانی ساخته شده‌اند، چقدر قابل اعتماد هستند؟
سند فاش‌شده نشان می‌دهد آنچه ما به عنوان هوش مصنوعی می‌بینیم، در واقع آینه‌ای است که سوگیری‌ها و بحران‌های اجتماعی ما را منعکس می‌کند و از طریق صفحه نمایش رایانه‌های کارگرانی که در سایه فعالیت می‌کنند، فیلتر شده است.
SurgeAI توضیح داده است که این سند «منسوخ شده و برای اهداف تحقیقاتی استفاده می‌شود» و خاطرنشان کرد که نمونه‌های موجود در آن «عمدا تحریک‌آمیز هستند تا مدل‌ها را برای تشخیص محتوای خطرناک آموزش دهند».
با این حال، واقعیت این است که هوش مصنوعی، علیرغم پیشرفت‌هایش، هنوز برای تعریف مرز‌های اخلاقی خود به نیروی کار انسانیِ به حاشیه رانده شده متکی است.
منبع: Futurism